As seguintes configurações de ferramenta de repositório de dados estão disponíveis.
Configurações da ferramenta (somente no console dos agentes de conversação)
Selecionar uma opção no menu suspenso Configurações da ferramenta afeta automaticamente quais outras configurações de ferramenta estão disponíveis.
As opções Default
e Optimized for voice
são configurações padrão que configuram automaticamente todos os outros parâmetros no menu de configuração da ferramenta.
As seguintes opções estão disponíveis:
Nome da configuração da ferramenta | Descrição |
---|---|
Padrão | Otimizado para todos os tipos de agentes. |
Otimizado para voz | Esse tipo de ferramenta padrão foi configurado especificamente para agentes de voz. |
Personalizar | Ao escolher a opção Customize , você pode especificar seus próprios parâmetros de fundamentação, reescritor e resumo em vez de usar os padrões atribuídos Default e Optimized for voice . |
Embasamento
Os agentes de conversação (Dialogflow CX) calculam um nível de confiança para cada resposta gerada com base no conteúdo dos repositórios de dados conectados. Isso mede a confiança de que todas as informações na resposta são respaldadas por informações nos armazenamentos de dados. Você pode ajustar quais respostas são permitidas selecionando o menor nível de confiança que considera adequado. Você pode selecionar o nível de confiança mais baixo permitido, e o agente não vai retornar respostas abaixo desse nível.
Há cinco níveis de confiança para escolher: VERY_LOW
, LOW
, MEDIUM
, HIGH
e VERY_HIGH
.
Também é possível aplicar um filtro de heurística de embasamento. Se ativada, as respostas que provavelmente são imprecisas com base em alucinações comuns serão ocultadas.
Selecionar o modelo de resumo
É possível selecionar o modelo generativo usado por um agente de repositório de dados para a solicitação generativa de resumo. A tabela a seguir contém as opções disponíveis:
Nome do modelo | Etapa do lançamento | Especificação do modelo |
---|---|---|
Padrão | GA | Essa é a configuração recomendada e está sujeita a mudanças ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente (provavelmente melhorias). Se quiser mais consistência no comportamento do agente, selecione um modelo específico. |
gemini-2.0-flash-001 | GA | Gemini 2.0 Flash |
gemini-2.0-flash-lite-001 | GA | Gemini 2.0 Flash Lite |
gemini-2.5-flash | Prévia pública | Gemini 2.5 Flash |
gemini-1.5-flash-001 | Legado | Gemini 1.5 Flash |
gemini-1.5-flash-002 | Legado | Gemini 1.5 Flash |
Todos os modelos listados estão disponíveis em todos os idiomas e regiões com suporte. |gemini_20_flash_lite_001_voice_mode | Otimizado para voz. Disponível em todos os idiomas compatíveis |
Comando personalizado de resumo
Você pode usar um comando de resumo padrão com o modelo de resumo selecionado ou fornecer o seu próprio. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores serão substituídos pelos valores apropriados no ambiente de execução, e o texto final será enviado ao LLM.
Os marcadores são os seguintes:
$original-query
: o texto da consulta do usuário.$rewritten-query
: o Dialogflow usa um módulo de reescrita para reescrever a consulta original do usuário em um formato mais preciso.$sources
: o Dialogflow usa a Pesquisa Enterprise para procurar fontes com base na consulta do usuário. As fontes encontradas são renderizadas em um formato específico:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: as informações sobre o usuário que envia a consulta são renderizadas no seguinte formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: o histórico da conversa é renderizado no seguinte formato:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}
: uma versão parametrizada do marcador de posição$conversation
. É possível personalizar o prefixo do usuário final (USER
), o prefixo do agente (AGENT
) e o número de turnos anteriores a serem incluídos (TURNS
). Todos os valores de parâmetro de marcador de posição precisam ser especificados.Por exemplo,
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}
O histórico de conversas é renderizado como:Human says: user's first query Agent says: answer to user's first query
Uma instrução personalizada precisa orientar o LLM a retornar "NOT_ENOUGH_INFORMATION" quando não for possível fornecer uma resposta. Nesse caso, o agente vai invocar um evento de não correspondência.
Exemplo:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Selecionar modelo de reescrita
Quando uma consulta do usuário é processada, o agente envia a consulta e um comando ao LLM para refatorar a consulta, o que realiza uma reescrita.
Você pode selecionar o modelo generativo usado por um agente de repositório de dados para a solicitação generativa de reescrita. A tabela a seguir lista as opções disponíveis:
Identificador do modelo | Suporte a idiomas |
---|---|
Padrão | Essa é a configuração recomendada e está sujeita a mudanças ao longo do tempo. Se você usar essa opção, poderá notar mudanças no comportamento do agente, provavelmente melhorias. Se quiser mais consistência no comportamento do agente, selecione um modelo específico. |
gemini-1.5-flash-001 | Disponível em todos os idiomas compatíveis. |
gemini-2.0-flash-001 | Disponível em todos os idiomas compatíveis. |
gemini-2.0-flash-lite-001 | Disponível em todos os idiomas compatíveis. |
gemini-xs | Disponível em todos os idiomas compatíveis. |
Reescritor desativado | Disponível em todos os idiomas compatíveis. |
Comando personalizado do Rewriter
Você pode usar um comando padrão ou fornecer um próprio. O comando é um modelo de texto que pode conter marcadores de posição predefinidos. Os marcadores serão substituídos pelos valores apropriados no ambiente de execução, e o texto final será enviado ao LLM.
Os marcadores de posição e o texto obrigatório são os seguintes:
$original-query
: o texto da consulta do usuário.$conversation
: o histórico da conversa é renderizado no seguinte formato:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
$end-user-metadata
: as informações sobre o usuário que envia a consulta são renderizadas no seguinte formato:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
Exemplo:
Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.
Conversation History: $conversation
Human: $original-query
Search Query:
Configurações de payload
As configurações de payload oferecem uma maneira de adicionar os snippets do repositório de dados como conteúdo avançado no payload de resposta, que é renderizado no messenger. Você pode ativar ou desativar esse recurso.