Configuración de la herramienta del almacén de datos

Están disponibles los siguientes parámetros de configuración de la herramienta de almacenamiento de datos.

Configuración de herramientas (solo en la consola de Conversational Agents)

Si seleccionas una opción en el menú desplegable Configuración de la herramienta, se modificará automáticamente la disponibilidad de otras configuraciones de herramientas.

Las opciones Default y Optimized for voice son parámetros de configuración predeterminados que configurarán automáticamente todos los demás parámetros en el menú de configuración de la herramienta.

Las siguientes opciones están disponibles:

Nombre del parámetro de configuración de la herramienta Descripción
Predeterminado Se optimizó para todos los tipos de agentes.
Optimizado para la voz Este tipo de herramienta predeterminado se configuró específicamente para los agentes de voz.
Personalizar Si eliges la opción Customize, podrás especificar tus propios parámetros de Fundamentación, Reescritura y Resumen en lugar de usar los valores predeterminados asignados de Default y Optimized for voice.

Fundamentos

Los agentes conversacionales (Dialogflow CX) calculan un nivel de confianza para cada respuesta generada a partir del contenido de tus almacenes de datos conectados. Esto evalúa la confianza de que toda la información de la respuesta se respalda con la información de los almacenes de datos. Puedes ajustar las respuestas permitidas seleccionando el nivel de confianza más bajo que te resulte adecuado. Puedes seleccionar el nivel de confianza más bajo permitido, y el agente no devolverá respuestas con un nivel inferior.

Puedes elegir entre 5 niveles de confianza: VERY_LOW, LOW, MEDIUM, HIGH y VERY_HIGH.

También puedes aplicar un filtro de heurística de fundamentación. Si está habilitada, se suprimen las respuestas que contienen contenido que probablemente sea impreciso según las alucinaciones comunes.

Selecciona el modelo de resumen

Puedes seleccionar el modelo generativo que usa un agente de almacén de datos para la solicitud generativa de resumen. En la siguiente tabla, se incluyen las opciones disponibles:

Nombre del modelo Etapa de lanzamiento Especificación del modelo
Predeterminado DG Esta es la configuración recomendada y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento del agente (probablemente mejoras). Si deseas más coherencia en el comportamiento del agente, selecciona un modelo específico.
gemini-2.0-flash-001 DG Gemini 2.0 Flash
gemini-2.0-flash-lite-001 DG Gemini 2.0 Flash Lite
gemini-2.5-flash Versión preliminar pública Gemini 2.5 Flash
gemini-1.5-flash-001 Heredada Gemini 1.5 Flash
gemini-1.5-flash-002 Heredada Gemini 1.5 Flash

Todos los modelos enumerados están disponibles en todos los idiomas y las regiones compatibles. |gemini_20_flash_lite_001_voice_mode | Optimizado para la voz. Disponible en todos los idiomas admitidos |

Instrucción personalizada de resumen

Puedes usar una instrucción de resumen predeterminada con el modelo de resumen seleccionado o proporcionar la tuya. La instrucción es una plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se reemplazarán por los valores adecuados en el tiempo de ejecución, y el texto final se enviará al LLM.

Los marcadores de posición son los siguientes:

  • $original-query: Es el texto de la búsqueda del usuario.
  • $rewritten-query: Dialogflow usa un módulo de reescritura para reescribir la búsqueda original del usuario en un formato más preciso.
  • $sources: Dialogflow usa la Búsqueda empresarial para buscar fuentes según la búsqueda del usuario. Las fuentes encontradas se renderizan en un formato específico:

    [1] title of first source
    content of first source
    [2] title of second source
    content of second source
    
  • $end-user-metadata: La información sobre el usuario que envía la búsqueda se renderiza en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    
  • $conversation: El historial de conversación se renderiza en el siguiente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • ${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}: Es una versión parametrizada del marcador de posición $conversation. Puedes personalizar el prefijo del usuario final (USER), el prefijo del agente (AGENT) y la cantidad de turnos anteriores que se incluirán (TURNS). Se deben especificar todos los valores de los parámetros de marcador de posición.

    Por ejemplo, ${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}. El historial de conversaciones se renderiza de la siguiente manera:

    Human says: user's first query
    Agent says: answer to user's first query
    

Una instrucción personalizada debe indicarle al LLM que devuelva "NOT_ENOUGH_INFORMATION" cuando no pueda proporcionar una respuesta. En este caso, el agente invocará un evento de no coincidencia.

Por ejemplo:

Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+   Answer the Human's query and make sure you mention all relevant details from
  the sources, using exactly the same words as the sources if possible.
+   The answer must be based only on the sources and not introduce any additional
  information.
+   All numbers, like price, date, time or phone numbers must appear exactly as
  they are in the sources.
+   Give as comprehensive answer as possible given the sources. Include all
  important details, and any caveats and conditions that apply.
+   The answer MUST be in English.
+   Don't try to make up an answer: If the answer cannot be found in the sources,
  you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.

Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.

Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?

Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.

Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION

Begin! Let's work this out step by step to be sure we have the right answer.

Sources:
$sources

$end-user-metadata
$conversation
Human: $original-query
AI:

Selecciona el modelo de reescritura

Cuando se procesa una consulta del usuario, el agente envía la consulta y una instrucción al LLM para que la refactorice, lo que realiza un reescritor.

Puedes seleccionar el modelo generativo que usa un agente de almacén de datos para la solicitud generativa de reescritura. En la siguiente tabla, se enumeran las opciones disponibles:

Identificador del modelo Idiomas compatibles
Predeterminado Esta es la configuración recomendada y está sujeta a cambios con el tiempo. Si usas esta opción, es posible que observes cambios en el comportamiento del agente (probablemente, mejoras). Si deseas más coherencia en el comportamiento del agente, selecciona un modelo específico.
gemini-1.5-flash-001 Disponible en todos los idiomas compatibles.
gemini-2.0-flash-001 Disponible en todos los idiomas compatibles.
gemini-2.0-flash-lite-001 Disponible en todos los idiomas compatibles.
gemini-xs Disponible en todos los idiomas compatibles.
Reescritor inhabilitado Disponible en todos los idiomas compatibles.

Instrucción personalizada del reescritor

Puedes usar una instrucción predeterminada o proporcionar la tuya. La instrucción es una plantilla de texto que puede contener marcadores de posición predefinidos. Los marcadores de posición se reemplazarán por los valores adecuados en el tiempo de ejecución, y el texto final se enviará al LLM.

Los marcadores de posición y el texto obligatorio son los siguientes:

  • $original-query: Es el texto de la búsqueda del usuario.
  • $conversation: El historial de conversación se renderiza en el siguiente formato:

    Human: user's first query
    AGENT: answer to user's first query
    Human: user's second query
    AGENT: answer to user's second query
    
  • $end-user-metadata: La información sobre el usuario que envía la búsqueda se renderiza en el siguiente formato:

    The following additional information is available about the human: {
    "key1": "value1",
    "key2": "value2",
    ...
    }
    

Por ejemplo:

Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.

Conversation History: $conversation
Human: $original-query
Search Query:

Configuración de carga útil

La configuración de la carga útil proporciona una forma de agregar los fragmentos del almacén de datos como contenido enriquecido en la carga útil de la respuesta, que se renderiza en el mensajero. Puedes activar o desactivar esta función.