Impostazioni dell'agente

Gli agenti hanno molte impostazioni che influiscono sul comportamento. Ogni console fornisce impostazioni diverse.

Impostazioni dell'agente della console Conversational Agents

Per accedere alle impostazioni dell'agente:

Console

  1. Apri la console Conversational Agents.
  2. Scegli il tuo progetto Google Cloud .
  3. Seleziona il tuo agente.
  4. Fai clic sull'icona delle impostazioni nell'angolo in alto a destra.
  5. Aggiorna le impostazioni come preferisci.
  6. Fai clic su Salva.

API

Consulta i metodi get e patch/update per il tipo Agent.

Seleziona un protocollo e una versione per il riferimento dell'agente:

Protocollo V3 V3beta1
REST Risorsa per gli agenti Risorsa per gli agenti
RPC Interfaccia agente Interfaccia agente
C++ AgentsClient Non disponibile
C# AgentsClient Non disponibile
Vai AgentsClient Non disponibile
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponibile Non disponibile
Python AgentsClient AgentsClient
Ruby Non disponibile Non disponibile

Le seguenti sottosezioni descrivono le diverse categorie di impostazioni dell'agente.

Impostazioni generali

Per gli agenti sono disponibili le seguenti impostazioni generali:

  • Nome visualizzato

    Un nome leggibile per l'agente.

  • Fuso orario

    Il fuso orario predefinito per l'agente.

  • Inizio della conversazione

    Questa impostazione determina se l'agente inizia la conversazione con un playbook generativo o un flusso deterministico.

  • Posizione dell'agente

    La regione dell'agente selezionata durante la creazione dell'agente.

  • Blocco dell'agente

    • Bloccare l'agente

      Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.

  • Impostazioni di logging

    • Abilitare Cloud Logging

      Indica se Cloud Logging è abilitato per l'agente.

    • Attivare la cronologia delle conversazioni

      Indica se vuoi che Google raccolga e memorizzi redacted le query degli utenti finali per migliorare la qualità.

    • Attivare la redazione dell'input utente finale basata sul consenso

      Se questa impostazione è abilitata, puoi utilizzare un parametro di sessione speciale per controllare se l'input e i parametri dell'utente finale vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro della sessione è true. Se questa impostazione è disattivata, non viene eseguita alcuna oscuramento.

      Il consenso degli utenti viene raccolto utilizzando un parametro sessione booleano: $session.params.conversation-redaction. Se questa impostazione è attivata e il parametro sessione è impostato su false, non viene eseguita alcuna oscuramento (si applicano comunque altre strategie di oscuramento). Se questa impostazione è attiva e il parametro di sessione è impostato su true, viene eseguita la redazione.

      Un esempio di flusso di richiesta di consenso potrebbe essere: prima chiedere all'utente se vuole conservare l'input utente dell'utente finale e abbinare la risposta a due intent, uno è "intent sì" e l'altro è "intent no". Poi, imposta il parametro di sessione su false (nessuna modifica) nei valori preimpostati dei parametri del percorso "intento sì" in fulfillment e su true (si verifica la modifica) nel valore preimpostato dei parametri del percorso "intento no".

  • BigQuery Export

    • Attivare BigQuery Export

      Indica se BigQuery Export è abilitato.

    • Set di dati BigQuery

      Il nome del set di dati BigQuery.

    • Tabella BigQuery

      Il nome della tabella BigQuery.

  • Suggerimenti per gli intent

    Puoi attivare i suggerimenti per gli intent.

  • Feedback degli utenti

    Puoi attivare questa impostazione per fornire un feedback sulla qualità delle risposte dell'agente, incluso Mi piace/Non mi piace.

  • Integrazione di Git

    Utilizza questa impostazione per aggiungere un'integrazione Git.

Impostazioni dell'AI generativa

Sono disponibili le seguenti impostazioni dell'AI generativa:

  • Generale

    • Selezione del modello generativo

      Seleziona il modello utilizzato dalle funzionalità di generazione. Per saperne di più, vedi Versioni del modello.

    • Limiti di token

      • Limite di token di input

        Seleziona il limite di token di input per il modello generativo. Questa è la dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'input del modello possono essere maggiori.

      • Limite di token di output

        Seleziona il limite di token di output per il modello generativo. Questa è la dimensione massima dei token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti dei token più piccoli hanno una latenza inferiore, ma la dimensione dell'output del modello è limitata. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.

    • Temperatura

      La temperatura di un LLM consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.

    • Limiti dei token di contesto

      L'impostazione elimina alcuni turni precedenti dal prompt LLM per evitare che le dimensioni del prompt aumentino a ogni turno sequenziale gestito dall'agente. Questa funzionalità offre un modo per mitigare l'aumento indesiderato delle dimensioni del prompt.

      Normalmente, senza troncamento, ogni turno successivo viene aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare in definitiva all'aumento delle dimensioni del prompt a ogni turno. Man mano che la cronologia della conversazione occupa una parte maggiore del prompt, ne rimane meno per gli esempi few-shot (che potrebbero quindi essere eliminati). Alla fine, il prompt potrebbe anche superare i limiti di token attuali. Puoi aumentare le dimensioni dei token per adattarti a questa situazione, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza di risposta del LLM.

      Il troncamento del contesto consente di impostare una percentuale del budget di token da riservare alla cronologia della conversazione, come massimo. I turni di conversazione vengono conservati in ordine cronologico inverso, dal più recente al meno recente. Questa impostazione può aiutarti a evitare che vengano superati i limiti dei token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, in ordine dal più recente al meno recente.

      Prima di poter modificare questa impostazione, devi impostare un limite di token.

      Il troncamento del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di turni eliminati. Valuta attentamente le interazioni con il playbook dopo aver attivato questa opzione.

      Il budget di input dei token viene utilizzato anche da:

      • Istruzioni ed esempi di sistema: vengono aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
      • Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
      • Esempi few-shot del playbook: vengono aggiunti in ordine (per impostazione predefinita) o tramite un algoritmo a tua scelta (ad esempio l'ordinamento in base alla corrispondenza migliore dell'espressione regolare). Gli esempi vengono selezionati in modo da rientrare nel budget dei token di input dopo l'inclusione di tutti gli altri elementi.
      • Cronologia della conversazione composta da espressioni dell'utente e dell'agente, contesto di transizione del flusso e del playbook, chiamate di strumenti e output nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
    • Frasi vietate

      Elenco di frasi vietate per l'AI generativa. Se una frase vietata viene visualizzata nel prompt o nella risposta generata, la generazione non andrà a buon fine. Tieni presente che l'elenco delle frasi vietate ha conseguenze su ogni query e chiamata LLM e aumenterà la latenza.

    • Filtri di sicurezza

      Configura i livelli di sensibilità dei filtri di sicurezza rispetto a diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:

      Categoria Descrizione
      Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti.
      Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e/o attività dannosi
      Contenuti sessualmente espliciti Riferimenti ad atti sessuali e/o ad altri contenuti osceni
      Molestie Commenti dannosi, intimidatori, prepotenti e/o illeciti rivolti a un altro individuo

      I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo una delle opzioni Blocco ridotto, Blocco limitato e Blocco esteso per ogni categoria. Puoi anche accedere all'opzione con limitazioni Nessun blocco, che disattiva i controlli dell'IA generativa per la categoria dopo l'invio di una richiesta di riconoscimento del rischio per il tuo progetto e la ricezione dell'approvazione.

      Per saperne di più, consulta Configurare gli attributi di sicurezza.

    • Sicurezza dei prompt

      Puoi selezionare l'impostazione enable prompt security check per attivare i controlli di sicurezza dei prompt. Se abilitato, l'agente tenterà di prevenire attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un prompt LLM aggiuntivo che verifica se la query dell'utente è potenzialmente dannosa.

    • Generative Fallback

  • Datastore

    Consulta Impostazioni dell'agente del datastore.

Flussi deterministici

Queste impostazioni si applicano a tutti i flussi di questo agente, ad eccezione delle impostazioni di ML che vengono applicate per flusso. Per modificare altre impostazioni specifiche del flusso, vai al flusso nella console e modificalo.

  • Addestramento degli intent

    Flows utilizza algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, abbinarli agli intent ed estrarre dati strutturati. I flussi apprendono dalle frasi di addestramento che fornisci e dai modelli linguistici integrati nei flussi. Sulla base di questi dati, crea un modello per prendere decisioni su quale intent deve essere abbinato a uinput utentete finale. Puoi applicare impostazioni di ML uniche per ogni flusso di un agente.

    Sono disponibili le seguenti impostazioni di addestramento degli intent:

    • Correzione ortografica

      Se questa opzione è attivata e l'input utente finale presenta un errore ortografico o grammaticale, l'intent verrà abbinato come se fosse scritto correttamente. La risposta di rilevamento dell'intent conterrà l'input utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio un'applle", la query verrà elaborata come se l'utente finale avesse inserito "Voglio una mela". Ciò vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.

      La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).

      Avvisi e best practice:

      • La correzione ortografica non può correggere gli errori di ASR (riconoscimento vocale automatico), quindi non è consigliabile attivarla per gli agenti che utilizzano input ASR.
      • È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi che non corrispondono spesso agli esempi negativi.
      • La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
      • Se un agente è definito utilizzando un linguaggio specifico del dominio, le correzioni potrebbero non essere desiderate.
    • Impostazioni ML specifiche per il flusso

      • Tipo di NLU

        Può essere uno dei seguenti:

      • Auto train

        Se attivato, il flusso viene addestrato ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, ciò potrebbe causare ritardi nell'interfaccia utente della console, quindi devi disattivare questa impostazione e eseguire l'addestramento manualmente in base alle esigenze per i flussi di grandi dimensioni.

      • Soglia di classificazione

        Per filtrare i risultati dei falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi regolare la soglia di classificazione del machine learning. Questa impostazione controlla l'attendibilità minima del rilevamento dell'intent richiesta per una corrispondenza dell'intent.

        Se il punteggio di confidenza per una corrispondenza di intent è inferiore al valore soglia, viene richiamato un evento di mancata corrispondenza.

        Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. per adattarsi a lingue diverse che ottengono risultati migliori con soglie di classificazione diverse. Per saperne di più sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.

      • Stato dell'addestramento

        Indica se il flusso è stato addestrato dopo l'ultimo aggiornamento dei dati del flusso.

      • Treno

        Utilizza questo pulsante per addestrare manualmente il flusso.

    • Lingua

      Le lingue supportate dal tuo agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:

      1. Esporta l'agente in formato JSON.
      2. Estrai il file scaricato.
      3. Trova il file agent.json.
      4. Aggiorna i campi defaultLanguageCode e supportedLanguageCodes con i valori che preferisci.
      5. Ripristina l'agente con lo stesso agente o un agente diverso rispetto al passaggio 1.
      6. Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.

      Puoi anche attivare il rilevamento e il cambio automatico della lingua.

Connettività

  • Modello di payload personalizzato

    In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.

  • Definizione del parametro

    Indica chiaramente quali parametri dei parametri di sessione verranno inviati al webhook e quali parametri di sessione possono essere impostati dalla risposta del webhook.

  • Impostazioni dei certificati client

    Utilizzato per caricare i certificati SSL.

Voce e IVR

  • Opzioni di sintesi vocale

    • Text-to-Speech

      • Selezione vocale

        Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.

        Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione della voce personalizzata dal menu a discesa di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        Puoi anche utilizzare la clonazione della voce.

        • Se utilizzi il gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com sia concesso il ruolo "Predittore AutoML" nel tuo progetto vocale personalizzato.
        • Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare Conversational Agents (Dialogflow CX) sia concesso il ruolo "Predittore AutoML" nel tuo progetto di voce personalizzata.
      • Tono della voce

        Controlla l'altezza relativa del tono della voce.

      • Velocità di lettura

        Controlla la velocità di lettura della voce.

      • Pronuncia

        Utilizza queste impostazioni per fornire all'agente la pronuncia di determinate frasi, utilizzando la codifica fonetica X-SAMPA.

    • Speech-to-Text

  • Call companion

    Vedi Call Companion.

Impostazioni UI

Puoi utilizzare queste impostazioni per personalizzare le interfacce utente di Messenger e Call Companion.

Sicurezza

Vedi Impostazioni di sicurezza e Controllo degli accessi.

Impostazioni dell'agente della console Dialogflow CX

Per accedere alle impostazioni dell'agente:

Console

  1. Apri la console.
  2. Scegli il tuo progetto Google Cloud .
  3. Seleziona il tuo agente.
  4. Fai clic su Impostazioni agente.
  5. Aggiorna le impostazioni come preferisci.
  6. Fai clic su Salva.

API

Consulta i metodi get e patch/update per il tipo Agent.

Seleziona un protocollo e una versione per il riferimento dell'agente:

Protocollo V3 V3beta1
REST Risorsa per gli agenti Risorsa per gli agenti
RPC Interfaccia agente Interfaccia agente
C++ AgentsClient Non disponibile
C# AgentsClient Non disponibile
Vai AgentsClient Non disponibile
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponibile Non disponibile
Python AgentsClient AgentsClient
Ruby Non disponibile Non disponibile

Impostazioni generali

Per gli agenti sono disponibili le seguenti impostazioni generali:

  • Nome visualizzato

    Un nome leggibile per l'agente.

  • Fuso orario

    Il fuso orario predefinito per l'agente.

  • Lingua predefinita

    La lingua predefinita supportata dal tuo agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:

    1. Esporta l'agente in formato JSON.
    2. Decomprimi il file scaricato.
    3. Trova il file agent.json.
    4. Aggiorna i campi defaultLanguageCode e supportedLanguageCodes con i valori che preferisci.
    5. Ripristina l'agente con lo stesso agente o un agente diverso rispetto al passaggio 1.
    6. Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.
  • Blocco dell'agente

    • Bloccare l'agente

      Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.

  • Impostazioni di logging

    • Abilitare Cloud Logging

      Indica se Cloud Logging è abilitato per l'agente.

    • Attivare la registrazione delle interazioni

      Indica se vuoi che Google raccolga e memorizzi redacted le query degli utenti finali per migliorare la qualità.

    • Attivare la redazione dell'input utente finale basata sul consenso

      Se questa impostazione è attiva, puoi utilizzare un parametro di sessione speciale per controllare se l'input e i parametri dell'utente finale vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro di sessione è true. Se questa impostazione è disattivata, non viene eseguita alcuna oscuramento.

      Il consenso degli utenti viene raccolto utilizzando un parametro sessione booleano: $session.params.conversation-redaction. Se questa impostazione è attivata e il parametro sessione è impostato su false, non viene eseguita alcuna oscuramento (si applicano comunque altre strategie di oscuramento). Se questa impostazione è attiva e il parametro di sessione è impostato su true, viene eseguita la redazione.

      Un esempio di flusso di richiesta di consenso potrebbe essere: prima chiedere all'utente se vuole conservare l'input utente dell'utente finale e abbinare la risposta a due intent, uno è "intent sì" e l'altro è "intent no". Poi, imposta il parametro di sessione su false (nessuna modifica) nei valori preimpostati dei parametri del percorso "intent sì" in fulfillment e su true (si verifica la modifica) nel valore preimpostato dei parametri del percorso "intent no".

  • BigQuery Export

    • Attivare BigQuery Export

      Indica se BigQuery Export è abilitato.

    • Set di dati BigQuery

      Il nome del set di dati BigQuery.

    • Tabella BigQuery

      Il nome della tabella BigQuery.

  • Suggerimenti per gli intent

    Puoi attivare i suggerimenti per gli intent.

  • Modello di payload personalizzato

    In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.

Impostazioni ML

Conversational Agents (Dialogflow CX) utilizza algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, associarli agli intent ed estrarre dati strutturati. Conversational Agents (Dialogflow CX) apprende dalle frasi di addestramento che fornisci e dai modelli linguistici integrati in Conversational Agents (Dialogflow CX). Sulla base di questi dati, crea un modello per prendere decisioni su quale intent deve essere abbinato a uinput utentete finale. Puoi applicare impostazioni di ML uniche per ogni flusso di un agente e il modello creato da Conversational Agents (Dialogflow CX) è unico per ogni flusso.

Sono disponibili le seguenti impostazioni di ML a livello di agente:

  • Consenti all'ML di correggere l'ortografia

    Se questa opzione è attivata e l'input utente finale presenta un errore ortografico o grammaticale, l'intent verrà abbinato come se fosse scritto correttamente. La risposta di rilevamento dell'intent conterrà l'input utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio una mela", la richiesta verrà elaborata come se avesse inserito "Voglio una mela". Ciò vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.

    La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).

    Avvisi e best practice:

    • La correzione ortografica non può correggere gli errori di ASR (riconoscimento vocale automatico), quindi non è consigliabile attivarla per gli agenti che utilizzano input ASR.
    • È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi che non corrispondono spesso agli esempi negativi.
    • La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
    • Se un agente è definito utilizzando un linguaggio specifico del dominio, le correzioni potrebbero non essere desiderate.

Sono disponibili le seguenti impostazioni ML specifiche per il flusso:

  • Tipo di NLU

    Può essere uno dei seguenti:

  • Auto train

    Se attivato, il flusso viene addestrato ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, ciò potrebbe causare ritardi nell'interfaccia utente della console, quindi devi disattivare questa impostazione e eseguire l'addestramento manualmente in base alle esigenze per i flussi di grandi dimensioni.

  • Soglia di classificazione

    Per filtrare i risultati dei falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi regolare la soglia di classificazione del machine learning. Questa impostazione controlla l'attendibilità minima del rilevamento dell'intent richiesta per una corrispondenza dell'intent.

    Se il punteggio di confidenza per una corrispondenza di intent è inferiore al valore di soglia, viene richiamato un evento di mancata corrispondenza.

    Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. per adattarsi a lingue diverse che ottengono risultati migliori con soglie di classificazione diverse. Per saperne di più sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.

  • Stato dell'addestramento

    Indica se il flusso è stato addestrato dopo l'ultimo aggiornamento dei dati del flusso.

  • Train NLU

    Utilizza questo pulsante per addestrare manualmente il flusso.

Impostazioni dell'AI generativa

Sono disponibili le seguenti impostazioni dell'AI generativa:

  • Generale

    • Frasi vietate

      Elenco di frasi vietate per l'AI generativa. Se una frase vietata viene visualizzata nel prompt o nella risposta generata, la generazione non andrà a buon fine.

    • Filtri di sicurezza

      Configura i livelli di sensibilità dei filtri di sicurezza rispetto alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:

      Categoria Descrizione
      Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti.
      Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi
      Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni
      Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo

      I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo una delle opzioni Blocco ridotto, Blocco limitato e Blocco esteso per ogni categoria. Puoi anche accedere all'opzione con limitazioni Nessun blocco, che disattiva i controlli dell'IA generativa per la categoria dopo l'invio di una richiesta di riconoscimento del rischio per il tuo progetto e la ricezione dell'approvazione.

      Per saperne di più, consulta Configurare gli attributi di sicurezza.

    • Sicurezza dei prompt

      Puoi selezionare l'impostazione enable prompt security check per attivare i controlli di sicurezza dei prompt. Se abilitato, l'agente tenterà di prevenire attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un prompt LLM aggiuntivo che verifica se la query dell'utente è potenzialmente dannosa.

  • Agente generativo

    • Selezione del modello generativo

      Seleziona il modello utilizzato dalle funzionalità di generazione. Per saperne di più, vedi Versioni del modello.

    • Troncamento del contesto del playbook

      Troncamento del contesto del playbook elimina alcuni turni precedenti dal prompt del playbook per evitare che le dimensioni del prompt aumentino a ogni turno sequenziale gestito dal playbook. Questa funzionalità offre un modo per mitigare l'aumento indesiderato delle dimensioni del prompt.

      Normalmente, senza troncamento, ogni turno successivo viene aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare in definitiva all'aumento delle dimensioni del prompt a ogni turno. Man mano che la cronologia della conversazione occupa una parte maggiore del prompt, ne rimane meno per gli esempi few-shot (che potrebbero quindi essere eliminati). Alla fine, il prompt potrebbe anche superare i limiti di token attuali. Puoi aumentare le dimensioni dei token per adattarti a questa situazione, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza di risposta del LLM.

      Il troncamento del contesto del playbook ti consente di impostare una percentuale del budget di token da riservare alla cronologia della conversazione, come massimo. I turni di conversazione vengono conservati in ordine cronologico inverso, dal più recente al meno recente. Questa impostazione può aiutarti a evitare che vengano superati i limiti dei token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, in ordine dal più recente al meno recente.

      Prima di poter modificare questa impostazione, devi impostare un limite di token.

      Importante: il troncamento del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di turni eliminati. Valuta attentamente le interazioni con il playbook dopo aver attivato questa opzione.

      Il budget di input dei token viene utilizzato anche da:

      • Istruzioni ed esempi di sistema: vengono aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
      • Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
      • Esempi few-shot del playbook: vengono aggiunti in ordine (per impostazione predefinita) o tramite un algoritmo a tua scelta (ad esempio l'ordinamento in base alla corrispondenza migliore dell'espressione regolare). Gli esempi vengono selezionati in modo da rientrare nel budget dei token di input dopo l'inclusione di tutti gli altri elementi.
      • Cronologia della conversazione composta da espressioni dell'utente e dell'agente, contesto di transizione del flusso e del playbook, chiamate di strumenti e output nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
  • Generative Fallback

  • Datastore

    Consulta Impostazioni dell'agente del datastore.

Impostazioni vocali e IVR

Sono disponibili le seguenti impostazioni di sintesi vocale e IVR:

  • Text-to-Speech

    • Selezione della voce

      Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.

      Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione della voce personalizzata dal menu a discesa di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Se utilizzi il gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com sia concesso il ruolo "Predittore AutoML" nel tuo progetto vocale personalizzato.
      • Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare Conversational Agents (Dialogflow CX) sia concesso il ruolo "Predittore AutoML" nel tuo progetto di voce personalizzata.
  • Speech-to-Text

DTMF

Per ulteriori informazioni, consulta la sezione DTMF per le integrazioni di telefonia.

Multimodale

Vedi Call Companion.

Impostazioni di condivisione

Consulta Controllo dell'accesso.

Impostazioni delle lingue

Aggiungi il supporto di altre lingue al tuo agente. Per l'elenco completo delle lingue, consulta il riferimento alle lingue.

Rilevamento automatico della lingua

Quando configuri il rilevamento automatico della lingua, l'agente di chat rileva automaticamente la lingua dell'utente finale e passa a quella lingua. Per ulteriori dettagli, consulta la documentazione sul rilevamento automatico della lingua.

Impostazioni di sicurezza

Consulta la sezione Impostazioni di sicurezza.

Impostazioni avanzate

Al momento, l'unica impostazione avanzata riguarda l'analisi del sentiment.

Impostazioni della console AI Applications

Questa sezione descrive le impostazioni disponibili per le app di agenti.

Generale

Per le app di agenti sono disponibili le seguenti impostazioni generali:

  • Nome visualizzato

    Un nome leggibile per l'app dell'agente.

  • Località

    La regione dell'app agente.

  • Blocco app

    Se abilitata, non sono consentite modifiche all'app dell'agente.

Logging

Per le app di agenti sono disponibili le seguenti impostazioni di logging:

  • Abilitare Cloud Logging

    Se abilitato, i log verranno inviati a Cloud Logging.

  • Attivare la cronologia delle conversazioni

    Se attivata, sarà disponibile la cronologia delle conversazioni. Indica se vuoi che Google raccolga e memorizzi le query degli utenti finali oscurate per migliorare la qualità. Questa impostazione non influisce sull'utilizzo della cronologia delle conversazioni per generare le risposte dell'agente.

  • Attivare BigQuery Export

    Se abilitata, la cronologia delle conversazioni viene esportata in BigQuery. Deve essere attivata anche l'impostazione Attiva cronologia conversazioni.

GenAI

Per le app di agenti sono disponibili le seguenti impostazioni di AI generativa:

  • Selezione del modello generativo

    Seleziona il modello generativo che gli agenti devono utilizzare per impostazione predefinita.

  • Limite di token di input

    Seleziona il limite di token di input per il modello generativo. Questa è la dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'input del modello possono essere maggiori.

  • Limite di token di output

    Seleziona il limite di token di output per il modello generativo. Questa è la dimensione massima dei token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti dei token più piccoli hanno una latenza inferiore, ma la dimensione dell'output del modello è limitata. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.

  • Temperatura

    La temperatura di un LLM consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.

  • Frasi vietate

    Elenco di frasi vietate per l'AI generativa. Se una frase vietata viene visualizzata nel prompt o nella risposta generata, l'agente restituirà una risposta di riserva.

  • Filtri di sicurezza

    Configura i livelli di sensibilità dei filtri di sicurezza rispetto alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:

    Categoria Descrizione
    Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti.
    Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi
    Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni
    Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo

    I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo una delle opzioni Blocco ridotto (blocca solo le istanze di contenuti dannosi con probabilità elevata), Blocco limitato (istanze con probabilità media e alta) e Blocco esteso (probabilità bassa, media e alta) per ogni categoria. Puoi anche accedere all'opzione con limitazioni Nessun blocco, che disattiva i controlli dell'IA generativa per la categoria dopo l'invio di una richiesta di riconoscimento del rischio per il tuo progetto e la ricezione dell'approvazione.

    Per saperne di più, consulta Configurare gli attributi di sicurezza.

  • Sicurezza dei prompt

    Puoi selezionare l'impostazione enable prompt security check per attivare i controlli di sicurezza dei prompt. Se abilitato, l'agente tenterà di prevenire attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un prompt LLM aggiuntivo che verifica se la query dell'utente è potenzialmente dannosa.

Git

Queste impostazioni forniscono un'integrazione Git. Segui le istruzioni per configurare l'integrazione.