Configuración de la herramienta de almacén de datos

Puedes usar los siguientes ajustes de configuración de la herramienta de almacenamiento de datos.

Configuración de la herramienta (solo en la consola Conversational Agents)

Si seleccionas una opción del menú desplegable Configuración de la herramienta, se modificará automáticamente la configuración de otras herramientas.

Las opciones Default y Optimized for voice son ajustes predeterminados que configurarán automáticamente todos los demás parámetros del menú de configuración de la herramienta.

Se encuentran disponibles las siguientes opciones:

Nombre del ajuste de la herramienta Descripción
Predeterminado Optimizado para todos los tipos de agentes.
Optimizado para la voz Este tipo de herramienta predeterminado se ha configurado específicamente para agentes de voz.
Personalizar Si elige la opción Customize, podrá especificar sus propios parámetros de Fundamentación, Reescritura y Resumen en lugar de usar los valores predeterminados asignados Default y Optimized for voice.

Fundamentación

Los agentes conversacionales (Dialogflow CX) calculan un nivel de confianza para cada respuesta generada a partir del contenido de tus almacenes de datos conectados. Mide la confianza de que toda la información de la respuesta se basa en la información de los almacenes de datos. Puedes ajustar qué respuestas se permiten seleccionando el nivel de confianza más bajo que te parezca adecuado. Puedes seleccionar el nivel de confianza más bajo permitido y el agente no devolverá respuestas inferiores a ese nivel.

Puedes elegir entre cinco niveles de confianza: VERY_LOW, LOW, MEDIUM, HIGH y VERY_HIGH.

También puedes aplicar un filtro de heurísticas de fundamentación. Si esta opción está habilitada, se ocultan las respuestas que contengan contenido que probablemente sea impreciso según las alucinaciones habituales.

Seleccionar modelo de resumen

Puedes seleccionar el modelo generativo que usa un agente de almacén de datos para la solicitud generativa de resumen. En la siguiente tabla se muestran las opciones disponibles:

Nombre del modelo Fase de lanzamiento Especificación del modelo
Predeterminado GA Esta es la configuración recomendada y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento del agente (probablemente mejoras). Si quieres que el comportamiento del agente sea más coherente, selecciona un modelo específico.
gemini-2.5-flash GA Gemini 2.5 Flash
gemini-2.5-flash-lite GA Gemini 2.5 Flash Lite
gemini-2.0-flash-001 GA Gemini 2.0 Flash
gemini-2.0-flash-lite-001 GA Gemini 2.0 Flash Lite
gemini-2.0-flash-lite-001-voice-mode GA Gemini 2.0 Flash Lite optimizado para la voz.

Todos los modelos que se indican están disponibles en todos los idiomas admitidos y en todas las regiones admitidas.

Petición personalizada de resumen

Puedes usar una petición de resumen predeterminada con el modelo de resumen que hayas seleccionado o proporcionar la tuya. La petición es una plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se sustituirán por los valores correspondientes en el tiempo de ejecución y el texto final se enviará al LLM.

Los marcadores de posición son los siguientes:

  • $original-query: el texto de la consulta del usuario.
  • $rewritten-query: Dialogflow usa un módulo de reescritura para reescribir la consulta original del usuario en un formato más preciso.
  • $sources: Dialogflow usa la búsqueda empresarial para buscar fuentes en función de la consulta del usuario. Las fuentes encontradas se renderizan en un formato específico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: la información sobre el usuario que envía la consulta se muestra en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: el historial de conversaciones se muestra en el siguiente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: versión parametrizada del marcador de posición $conversation. Puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AGENT) y el número de turnos anteriores que se deben incluir (TURNS). Debes especificar todos los valores de los parámetros de marcador de posición.

    Por ejemplo, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. El historial de conversaciones se muestra de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    

Una petición personalizada debe indicar al LLM que devuelva "NOT_ENOUGH_INFORMATION" cuando no pueda proporcionar una respuesta. En este caso, el agente invocará un evento de no coincidencia.

Por ejemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Seleccionar modelo de reescritura

Cuando se procesa una consulta de usuario, el agente envía la consulta y una petición al LLM para refactorizar la consulta del usuario, lo que realiza una reescritura.

Puede seleccionar el modelo generativo que usa un agente de almacén de datos para la solicitud generativa de reescritura. En la siguiente tabla se enumeran las opciones disponibles:

Nombre del modelo Fase de lanzamiento Especificación del modelo
Predeterminado GA Esta es la configuración recomendada y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento del agente (probablemente mejoras). Si quieres que el comportamiento del agente sea más coherente, selecciona un modelo específico.
Reescritura inhabilitada GA No se reescribirá ninguna consulta. La latencia mejorará, pero la calidad se reducirá. En concreto, la herramienta de almacén de datos puede tener dificultades para responder a preguntas que requieran contexto del historial de conversaciones.
gemini-2.5-flash GA Gemini 2.5 Flash
gemini-2.5-flash-lite GA Gemini 2.5 Flash Lite
gemini-2.0-flash-001 GA Gemini 2.0 Flash
gemini-2.0-flash-lite-001 GA Gemini 2.0 Flash Lite

Todos los modelos que se indican están disponibles en todos los idiomas admitidos y en todas las regiones admitidas.

Petición personalizada de Reescribir

Puedes usar una petición predeterminada o proporcionar una propia. La petición es una plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se sustituirán por los valores correspondientes en el tiempo de ejecución y el texto final se enviará al LLM.

Los marcadores de posición y el texto obligatorio son los siguientes:

  • $original-query: el texto de la consulta del usuario.
  • $conversation: el historial de conversaciones se muestra en el siguiente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: versión parametrizada del marcador de posición $conversation. Puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AGENT) y el número de turnos anteriores que se deben incluir (TURNS). Debes especificar todos los valores de los parámetros de marcador de posición.

    Por ejemplo, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. El historial de conversaciones se muestra de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    
  • $end-user-metadata: la información sobre el usuario que envía la consulta se muestra en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    

Por ejemplo:

Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.

Conversation History: $conversation
Human: $original-query
Search Query:

Configuración de la carga útil

Los ajustes de carga útil permiten añadir los fragmentos de la tienda de datos como contenido enriquecido en la carga útil de la respuesta, que se renderiza en el mensajero. Puedes activar o desactivar esta función.