Impostazioni dello strumento Datastore

Sono disponibili le seguenti impostazioni di configurazione dello strumento di archiviazione dei dati.

Impostazioni dello strumento (solo console Conversational Agents)

La selezione di un'opzione dal menu a discesa Impostazioni strumento influisce automaticamente sulle altre configurazioni degli strumenti disponibili.

Le opzioni Default e Optimized for voice sono impostazioni predefinite che configurano automaticamente tutti gli altri parametri nel menu di configurazione dello strumento.

Sono disponibili le seguenti opzioni:

Nome impostazione strumento Descrizione
Predefinito Ottimizzato per tutti i tipi di agenti.
Ottimizzato per la voce Questo tipo di strumento predefinito è stato configurato appositamente per gli agenti vocali.
Personalizza Se scegli l'opzione Customize, puoi specificare i tuoi parametri Grounding, Rewriter e Summarization anziché utilizzare i valori predefiniti assegnati a Default e Optimized for voice.

Grounding

Conversational Agents (Dialogflow CX) calcola un livello di confidenza per ogni risposta generata dai contenuti dei datastore connessi. Misura la certezza che tutte le informazioni nella risposta siano supportate da informazioni nei datastore. Puoi modificare le risposte consentite selezionando il livello di confidenza più basso che ritieni opportuno. Puoi selezionare il livello di confidenza più basso consentito e l'agente non restituirà risposte inferiori a questo livello.

Puoi scegliere tra 5 livelli di attendibilità: VERY_LOW, LOW, MEDIUM, HIGH e VERY_HIGH.

Puoi anche applicare un filtro euristico di grounding. Se abilitate, le risposte che contengono contenuti probabilmente imprecisi in base alle allucinazioni comuni vengono eliminate.

Seleziona il modello di riepilogo

Puoi selezionare il modello generativo utilizzato da un agente datastore per la richiesta generativa di riepilogo. La seguente tabella contiene le opzioni disponibili:

Nome modello Fase di avvio Specifica del modello
Predefinito GA Questa è la configurazione consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti notare cambiamenti nel comportamento dell'agente (probabilmente miglioramenti). Se vuoi una maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico.
gemini-2.0-flash-001 GA Gemini 2.0 Flash
gemini-2.0-flash-lite-001 GA Gemini 2.0 flash lite
gemini-2.5-flash Anteprima pubblica Gemini 2.5 Flash
gemini-1.5-flash-001 Legacy Gemini 1.5 Flash
gemini-1.5-flash-002 Legacy Gemini 1.5 Flash

Tutti i modelli elencati sono disponibili in tutte le lingue supportate e in tutte le regioni supportate. |gemini_20_flash_lite_001_voice_mode | Ottimizzato per la voce. Disponibile in tutte le lingue supportate |

Prompt personalizzato per il riepilogo

Puoi utilizzare un prompt di riepilogo predefinito con il modello di riepilogo selezionato o fornire il tuo. Il prompt è un modello di testo che può contenere segnaposto predefiniti. I segnaposto verranno sostituiti con i valori appropriati in fase di runtime e il testo finale verrà inviato al LLM.

I segnaposto sono i seguenti:

  • $original-query: il testo della query dell'utente.
  • $rewritten-query: Dialogflow utilizza un modulo di riscrittura per riscrivere la query utente originale in un formato più accurato.
  • $sources: Dialogflow utilizza Enterprise Search per cercare fonti in base alla query dell'utente. Le fonti trovate vengono visualizzate in un formato specifico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: le informazioni sull'utente che invia la query vengono visualizzate nel seguente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: La cronologia conversazione viene visualizzata nel seguente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: una versione parametrizzata del segnaposto $conversation. Puoi personalizzare il prefisso dell'utente finale (USER), il prefisso dell'agente (AGENT) e il numero di turni precedenti da includere (TURNS). Tutti i valori dei parametri segnaposto devono essere specificati.

    Ad esempio, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. La cronologia delle conversazioni viene visualizzata come:

    Human says: user's first query
    Agent says: answer to user's first query
    

Un prompt personalizzato deve indicare all'LLM di restituire "NOT_ENOUGH_INFORMATION" quando non può fornire una risposta. In questo caso, l'agente invocherà un evento nessuna corrispondenza.

Ad esempio:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Seleziona il modello di riscrittura

Quando viene elaborata una query dell'utente, l'agente invia la query e un prompt all'LLM per eseguire il refactoring della query, che esegue una riscrittura.

Puoi selezionare il modello generativo utilizzato da un agente datastore per la richiesta generativa di riscrittura. La tabella seguente elenca le opzioni disponibili:

Identificatore modello Supporto delle lingue
Predefinito Questa è la configurazione consigliata ed è soggetta a modifiche nel tempo. Se utilizzi questa opzione, potresti notare cambiamenti nel comportamento dell'agente (probabilmente miglioramenti). Se vuoi una maggiore coerenza nel comportamento dell'agente, seleziona un modello specifico.
gemini-1.5-flash-001 Disponibile in tutte le lingue supportate.
gemini-2.0-flash-001 Disponibile in tutte le lingue supportate.
gemini-2.0-flash-lite-001 Disponibile in tutte le lingue supportate.
gemini-xs Disponibile in tutte le lingue supportate.
Strumento di riscrittura disattivato Disponibile in tutte le lingue supportate.

Prompt personalizzato di riscrittura

Puoi utilizzare un prompt predefinito o, facoltativamente, fornirne uno personalizzato. Il prompt è un modello di testo che può contenere segnaposto predefiniti. I segnaposto verranno sostituiti con i valori appropriati in fase di runtime e il testo finale verrà inviato al LLM.

I segnaposto e il testo obbligatorio sono i seguenti:

  • $original-query: il testo della query dell'utente.
  • $conversation: La cronologia conversazione viene visualizzata nel seguente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • $end-user-metadata: le informazioni sull'utente che invia la query vengono visualizzate nel seguente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    

Ad esempio:

Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.

Conversation History: $conversation
Human: $original-query
Search Query:

Impostazioni del payload

Le impostazioni del payload consentono di aggiungere gli snippet dell'datastore come contenuti avanzati nel payload di risposta, che viene visualizzato nel messenger. Puoi scegliere di attivare o disattivare questa funzionalità.