Configuración de agentes

Los agentes tienen muchos parámetros de configuración que afectan su comportamiento. Cada consola proporciona diferentes parámetros de configuración.

Configuración del agente de la consola de Conversational Agents

Para acceder a la configuración del agente:

Console

  1. Abre la consola de Conversational Agents.
  2. Elige tu Google Cloud proyecto.
  3. Selecciona el agente.
  4. Haz clic en este ícono de configuración en la esquina superior derecha.
  5. Actualiza la configuración como desees.
  6. Haz clic en Guardar.

API

Consulta los métodos get y patch/update para el tipo Agent.

Selecciona un protocolo y una versión para la Referencia del agente:

Protocolo V3 V3beta1
REST Recurso del agente Recurso del agente
RPC Interfaz del agente Interfaz del agente
C++ AgentsClient No disponible
C# AgentsClient No disponible
Go AgentsClient No disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP No disponible No disponible
Python AgentsClient AgentsClient
Ruby No disponible No disponible

En las siguientes subsecciones, se describen las diferentes categorías de la configuración del agente.

Configuración general

Las siguientes opciones de configuración general están disponibles para los agentes:

  • Nombre visible

    Es el nombre legible para tu agente.

  • Zona horaria

    La zona horaria predeterminada del agente.

  • Inicio de conversación

    Este parámetro de configuración determina si tu agente inicia la conversación con una guía generativa o un flujo determinístico.

  • Ubicación del agente

    Es la región del agente que seleccionaste cuando lo creaste.

  • Bloqueo del agente

    • Bloquear el agente

      Indica si el agente está bloqueado. No se puede editar un agente bloqueado.

  • Configuración de registros

    • Habilita Cloud Logging

      Indica si el registro de Cloud está habilitado para el agente.

    • Habilita el historial de conversaciones

      Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad.

    • Habilita la ocultación de la entrada del usuario final basada en el consentimiento

      Si este parámetro de configuración está habilitado, te permite usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan en el historial de conversaciones y en Cloud Logging. De forma predeterminada, el parámetro de sesión es true. Si se inhabilita este parámetro de configuración, no se realizará ninguna ocultación.

      El consentimiento del usuario se recopila con un parámetro de sesión booleano: $session.params.conversation-redaction. Si este parámetro de configuración está habilitado y el parámetro de sesión se establece en false, no se realizará ninguna ocultación (se seguirán aplicando otras estrategias de ocultación). Si este parámetro de configuración está habilitado y el parámetro de sesión se establece en true, se produce la ocultación.

      Un ejemplo de flujo de solicitud de consentimiento podría ser el siguiente: primero, pregúntale al usuario si desea conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". Luego, establece el parámetro de sesión en false (sin ocultación) en los ajustes predeterminados de parámetros de la ruta del "intent de sí" en fulfillment y en true (se produce la ocultación) en el ajuste predeterminado de parámetros de la ruta del "intent de no".

  • BigQuery Export

    • Habilita la exportación a BigQuery

      Indica si la exportación a BigQuery está habilitada.

    • Conjunto de datos de BigQuery

      Es el nombre del conjunto de datos de BigQuery.

    • Tabla de BigQuery

      El nombre de la tabla de BigQuery.

  • Sugerencias de intención

    Puedes habilitar las sugerencias de intención.

  • Comentarios de los usuarios

    Puedes habilitar este parámetro de configuración para proporcionar comentarios sobre la calidad de las respuestas del agente, incluidos los Me gusta y los No me gusta.

  • Integración de Git

    Usa este parámetro de configuración para agregar una integración de Git.

Configuración de IA generativa

Están disponibles los siguientes parámetros de configuración de IA generativa:

  • General

    • Selección del modelo generativo

      Selecciona el modelo que usan las funciones basadas en IA generativa. Para obtener más información, consulta Versiones del modelo.

    • Límites de tokens

      • Límite de tokens de entrada

        Selecciona el límite de tokens de entrada para el modelo generativo. Este es el tamaño máximo de tokens para la entrada que se envía al modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.

      • Límite de tokens de salida

        Selecciona el límite de tokens de salida para el modelo generativo. Es el tamaño máximo de tokens para la salida recibida del modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de la salida del modelo puede ser mayor.

    • Temperatura

      La temperatura de un LLM te permite controlar qué tan creativas son las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.

    • Límites de tokens de contexto

      El parámetro de configuración descarta algunos turnos anteriores de la instrucción del LLM para evitar que el tamaño de la instrucción aumente con cada turno secuencial que maneja el agente. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de la instrucción.

      Normalmente, sin truncamiento, cada turno posterior se agregará al "historial de conversación" de la instrucción del LLM, independientemente de si es relevante para el turno actual. En última instancia, esto puede hacer que la instrucción aumente de tamaño con cada turno. A medida que el historial de conversación ocupa más espacio en la instrucción, se puede usar menos espacio para los ejemplos de aprendizaje con pocos ejemplos (por lo que es posible que se descarten). Con el tiempo, es posible que la instrucción también supere los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esto, pero ten en cuenta que los tamaños de instrucciones más grandes también aumentan la latencia de respuesta del LLM.

      El truncamiento del contexto te permite establecer un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones, como máximo. Los turnos de conversación se conservan en orden de más reciente a menos reciente. Este parámetro de configuración puede ayudarte a evitar que se excedan los límites de tokens. Independientemente del parámetro de configuración que elijas, se conservarán al menos dos turnos de conversación, en orden del más reciente al menos reciente.

      Primero debes establecer un límite de tokens para poder modificar este parámetro de configuración.

      Truncar el contexto puede provocar que algunos parámetros se pierdan de forma inadvertida si forman parte de los turnos descartados. Evalúa cuidadosamente las interacciones de tu guía después de habilitar esta opción.

      El presupuesto de entrada de tokens también se usa en los siguientes casos:

      • Instrucciones y ejemplos del sistema: Se agregan automáticamente a la instrucción. Este comportamiento no se puede modificar.
      • Instrucciones y objetivos del manual: Todas las instrucciones y los objetivos que escribas se agregarán a la instrucción en su totalidad.
      • Ejemplos de pocas muestras del manual: Se agregan en orden (de forma predeterminada) o con un algoritmo que elijas (como el orden de mejor coincidencia de expresión regular). Los ejemplos se seleccionan para que se ajusten al presupuesto de tokens de entrada después de incluir todos los demás elementos.
      • Historial de la conversación compuesto por enunciados del usuario y del agente, contexto de transición de flujos y manuales, llamadas a herramientas y resultados en la misma sesión de todos los turnos anteriores que el manual actual controló de forma secuencial.
    • Frases prohibidas

      Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, fallará la generación. Ten en cuenta que la lista de frases prohibidas tiene consecuencias en cada búsqueda y llamada al LLM, y aumentará la latencia.

    • Filtros de seguridad

      Configura los niveles de sensibilidad de los filtros de seguridad con respecto a las diferentes categorías de IA responsable (RAI). El contenido se evaluará según las siguientes cuatro categorías:

      Categoría Descripción
      Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos.
      Contenido peligroso Promueve o habilita el acceso a bienes, servicios o actividades perjudiciales
      Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno.
      Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona

      El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.

      Para obtener más información, consulta cómo configurar los atributos de seguridad.

    • Seguridad de instrucciones

      Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.

    • Respuesta generativa de respaldo

  • Almacén de datos

    Consulta Configuración del agente de almacén de datos.

Flujos determinísticos

Estos parámetros de configuración se aplican a todos los flujos de este agente, excepto a la configuración del AA, que se aplica por flujo. Para editar otros parámetros de configuración específicos del flujo, navega al flujo en la consola y edita la configuración allí.

  • Entrenamiento de intents

    Flows usa algoritmos de aprendizaje automático (AA) para comprender las entradas del usuario final, hacerlas coincidir con intents y extraer datos estructurados. Los flujos aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los flujos. A partir de estos datos, compila un modelo para tomar decisiones sobre qué intent debe coincidir con determinada entrada del usuario final. Puedes aplicar opciones de configuración únicas del AA en cada flujo de un agente.

    Están disponibles los siguientes parámetros de configuración del entrenamiento de intents:

    • Corrección ortográfica

      Si esta función está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se establecerá la coincidencia con un intent como si se hubiera escrito correctamente. La respuesta del intent de detección contendrá la entrada del usuario final corregida. Por ejemplo, si un usuario final ingresa "Quiero una manzaana", se procesará como si hubiera escrito "Quiero una manzana". Esto también se aplica a las coincidencias que involucran entidades personalizadas y del sistema.

      La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).

      Advertencias y prácticas recomendadas:

      • La corrección ortográfica no puede corregir errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para agentes que usen entradas de ASR.
      • Es posible que la entrada corregida coincida con un intent equivocado. Esto puede solucionarse agregando frases habituales con coincidencias incorrectas a los ejemplos negativos.
      • La corrección ortográfica aumenta levemente el tiempo de respuesta del agente.
      • Si se define a un agente con jerga específica de un dominio, es posible que las correcciones no sean adecuadas.
    • Configuración del AA específica del flujo

      • Tipo de CLN

        Puede ser uno de los siguientes:

      • Entrenamiento automático

        Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En flujos grandes, esto puede causar retrasos en la IU de la consola, por lo que debes inhabilitar esta configuración y realizar el entrenamiento de forma manual según sea necesario.

      • Umbral de clasificación

        A fin de filtrar los resultados falsos positivos y obtener una variedad de entradas de lenguaje natural coincidentes para tu agente, puedes ajustar el umbral de clasificación de aprendizaje automático. Este parámetro de configuración controla la confianza mínima de detección de intents requerida para una coincidencia de intents.

        Si la puntuación de confianza de una coincidencia de intent es menor que el valor límite, se invocará un evento de no coincidencia.

        Puedes establecer un valor de umbral de clasificación independiente para cada flujo en cada idioma habilitado para el agente. Esto se debe a que los diferentes idiomas funcionan mejor con diferentes umbrales de clasificación. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.

      • Estado del entrenamiento

        Indica si el flujo se entrenó desde la última actualización de los datos del flujo.

      • Train

        Usa este botón para entrenar el flujo de forma manual.

    • Idioma

      Son los idiomas que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:

      1. Exporta tu agente al formato JSON.
      2. Extrae el archivo descargado.
      3. Busca el archivo agent.json.
      4. Actualiza los campos defaultLanguageCode y supportedLanguageCodes a los valores deseados.
      5. Restablece el agente al mismo agente o a uno diferente del paso 1.
      6. Actualiza las frases de entrenamiento y los valores de entidades específicos para cada idioma según sea necesario.

      También puedes habilitar la detección y el cambio automático de idioma.

Conectividad

  • Plantilla de carga útil personalizada

    En esta sección, puedes crear descripciones y cargas útiles para las plantillas de cargas útiles personalizadas.

  • Definición del parámetro

    Indica claramente qué parámetros de sesión se enviarán al webhook y qué parámetros de sesión puede establecer la respuesta del webhook.

  • Configuración del certificado de cliente

    Se usa para subir certificados SSL.

IVR y voz

  • Opciones de voz

    • Text-to-Speech

      • Selección de voz

        Puedes seleccionar el idioma y la voz que se usan para la síntesis de voz.

        Para habilitar la Voz personalizada en tu agente, selecciona la opción de voz personalizada en el menú desplegable de selección de voz y especifica el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        También puedes usar la clonación de voz.

        • Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
        • Para las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a los agentes conversacionales (Dialogflow CX) tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
      • Tono de voz

        Controla la altura o la gravedad relativa del tono del habla.

      • Velocidad del habla

        Controla la velocidad de habla de la voz.

      • Pronunciación

        Usa estos parámetros de configuración para proporcionar al agente la pronunciación de ciertas frases con la codificación fonética X-SAMPA.

    • Speech-to-Text

  • Call companion

    Consulta Call Companion.

Configuración de la IU

Puedes usar estos parámetros de configuración para personalizar las interfaces de usuario de Messenger y Call Companion.

Seguridad

Consulta Configuración de seguridad y Control de acceso.

Configuración del agente de la consola de Dialogflow CX

Para acceder a la configuración del agente:

Console

  1. Abre la consola.
  2. Elige tu Google Cloud proyecto.
  3. Selecciona el agente.
  4. Haz clic en Configuración del agente.
  5. Actualiza la configuración como desees.
  6. Haz clic en Guardar.

API

Consulta los métodos get y patch/update para el tipo Agent.

Selecciona un protocolo y una versión para la Referencia del agente:

Protocolo V3 V3beta1
REST Recurso del agente Recurso del agente
RPC Interfaz del agente Interfaz del agente
C++ AgentsClient No disponible
C# AgentsClient No disponible
Go AgentsClient No disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP No disponible No disponible
Python AgentsClient AgentsClient
Ruby No disponible No disponible

Configuración general

Las siguientes opciones de configuración general están disponibles para los agentes:

  • Nombre visible

    Es el nombre legible para tu agente.

  • Zona horaria

    La zona horaria predeterminada del agente.

  • Idioma predeterminado

    El idioma predeterminado que admite el agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:

    1. Exporta tu agente al formato JSON.
    2. Descomprime el archivo descargado.
    3. Busca el archivo agent.json.
    4. Actualiza los campos defaultLanguageCode y supportedLanguageCodes a los valores deseados.
    5. Restablece el agente al mismo agente o a uno diferente del paso 1.
    6. Actualiza las frases de entrenamiento y los valores de entidades específicos para cada idioma según sea necesario.
  • Bloqueo del agente

    • Bloquear el agente

      Indica si el agente está bloqueado. No se puede editar un agente bloqueado.

  • Configuración de registro

    • Habilita Cloud Logging

      Indica si el registro de Cloud está habilitado para el agente.

    • Habilitar el registro de interacciones

      Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad.

    • Habilita la ocultación de la entrada del usuario final basada en el consentimiento

      Si se habilita este parámetro de configuración, puedes usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan en el historial de conversaciones y en Cloud Logging. De forma predeterminada, el parámetro de sesión es true. Si se inhabilita este parámetro de configuración, no se realizará ninguna ocultación.

      El consentimiento del usuario se recopila con un parámetro de sesión booleano: $session.params.conversation-redaction. Si este parámetro de configuración está habilitado y el parámetro de sesión se establece en false, no se realizará ninguna ocultación (se seguirán aplicando otras estrategias de ocultación). Si este parámetro de configuración está habilitado y el parámetro de sesión se establece en true, se produce la ocultación.

      Un ejemplo de flujo de solicitud de consentimiento podría ser el siguiente: primero, pregúntale al usuario si desea conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". Luego, establece el parámetro de sesión en false (sin ocultación) en los ajustes predeterminados de parámetros de la ruta del "intent de sí" en fulfillment y en true (se produce la ocultación) en el ajuste predeterminado de parámetros de la ruta del "intent de no".

  • BigQuery Export

    • Habilita la exportación a BigQuery

      Indica si la exportación a BigQuery está habilitada.

    • Conjunto de datos de BigQuery

      Es el nombre del conjunto de datos de BigQuery.

    • Tabla de BigQuery

      El nombre de la tabla de BigQuery.

  • Sugerencias de intención

    Puedes habilitar las sugerencias de intención.

  • Plantilla de carga útil personalizada

    En esta sección, puedes crear descripciones y cargas útiles para las plantillas de cargas útiles personalizadas.

Configuración del AA

Conversational Agents (Dialogflow CX) usa algoritmos de aprendizaje automático (AA) para comprender las entradas del usuario final, hacerlas coincidir con intents y extraer datos estructurados. Conversational Agents (Dialogflow CX) aprende de las frases de entrenamiento que le proporcionas y de los modelos de lenguaje integrados en Conversational Agents (Dialogflow CX). A partir de estos datos, compila un modelo para tomar decisiones sobre qué intent debe coincidir con determinada entrada del usuario final. Puedes aplicar parámetros de configuración únicos del AA a cada flujo de un agente, y el modelo que crean los agentes conversacionales (Dialogflow CX) es único para cada flujo.

Las siguientes opciones de configuración del AA de todo el agente están disponibles:

  • Permite que el AA corrija la ortografía

    Si esta función está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se establecerá la coincidencia con un intent como si se hubiera escrito correctamente. La respuesta del intent de detección contendrá la entrada del usuario final corregida. Por ejemplo, si un usuario final ingresa "Quiero una manzaana", se procesará como si hubiera escrito "Quiero una manzana". Esto también se aplica a las coincidencias que involucran entidades personalizadas y del sistema.

    La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).

    Advertencias y prácticas recomendadas:

    • La corrección ortográfica no puede corregir errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para agentes que usen entradas de ASR.
    • Es posible que la entrada corregida coincida con un intent equivocado. Esto puede solucionarse agregando frases habituales con coincidencias incorrectas a los ejemplos negativos.
    • La corrección ortográfica aumenta levemente el tiempo de respuesta del agente.
    • Si se define a un agente con jerga específica de un dominio, es posible que las correcciones no sean adecuadas.

Las siguientes opciones de configuración del AA específicas para los flujos están disponibles:

  • Tipo de CLN

    Puede ser uno de los siguientes:

  • Entrenamiento automático

    Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En flujos grandes, esto puede causar retrasos en la IU de la consola, por lo que debes inhabilitar esta configuración y realizar el entrenamiento de forma manual según sea necesario.

  • Umbral de clasificación

    A fin de filtrar los resultados falsos positivos y obtener una variedad de entradas de lenguaje natural coincidentes para tu agente, puedes ajustar el umbral de clasificación de aprendizaje automático. Este parámetro de configuración controla la confianza mínima de detección de intents requerida para una coincidencia de intents.

    Si la puntuación de confianza de una coincidencia de intent es menor que el valor límite, se invocará un evento de no coincidencia.

    Puedes establecer un valor de umbral de clasificación independiente para cada flujo en cada idioma habilitado para el agente. Esto se debe a que los diferentes idiomas funcionan mejor en diferentes umbrales de clasificación. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.

  • Estado del entrenamiento

    Indica si el flujo se entrenó desde la última actualización de los datos del flujo.

  • Entrena CLN

    Usa este botón para entrenar el flujo de forma manual.

Configuración de IA generativa

Están disponibles los siguientes parámetros de configuración de IA generativa:

  • General

    • Frases prohibidas

      Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, fallará la generación.

    • Filtros de seguridad

      Configurar los niveles de sensibilidad de los filtros de seguridad con respecto a diferentes categorías de IA responsable (RAI) El contenido se evaluará según las siguientes cuatro categorías:

      Categoría Descripción
      Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos.
      Contenido peligroso Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales.
      Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno.
      Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona.

      El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.

      Para obtener más información, consulta cómo configurar los atributos de seguridad.

    • Seguridad de las instrucciones

      Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.

  • Agente generativo

    • Selección del modelo generativo

      Selecciona el modelo que usan las funciones basadas en IA generativa. Para obtener más información, consulta Versiones del modelo.

    • Truncamiento del contexto de la guía

      La truncación del contexto de la guía elimina algunos intercambios anteriores de la instrucción de la guía para evitar que el tamaño de la instrucción aumente con cada intercambio secuencial que maneja la guía. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de la instrucción.

      Normalmente, sin truncamiento, cada turno posterior se agregará al "historial de conversación" de la instrucción del LLM, independientemente de si es relevante para el turno actual. En última instancia, esto puede hacer que la instrucción aumente de tamaño con cada turno. A medida que el historial de conversación ocupa más espacio en la instrucción, se puede usar menos espacio para los ejemplos de aprendizaje con pocos ejemplos (por lo que es posible que se descarten). Con el tiempo, es posible que la instrucción también supere los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esto, pero ten en cuenta que los tamaños de instrucciones más grandes también aumentan la latencia de respuesta del LLM.

      El truncamiento del contexto del libro de jugadas te permite establecer un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones, como máximo. Los turnos de conversación se conservan en orden de más reciente a menos reciente. Este parámetro de configuración puede ayudarte a evitar que se excedan los límites de tokens. Independientemente del parámetro de configuración que elijas, se conservarán al menos dos turnos de conversación, en orden del más reciente al menos reciente.

      Primero debes establecer un límite de tokens antes de poder modificar este parámetro de configuración.

      Importante: Truncar el contexto puede provocar que algunos parámetros se pierdan de forma inadvertida si forman parte de los turnos descartados. Evalúa cuidadosamente las interacciones de tu manual después de habilitar esta opción.

      El presupuesto de entrada de tokens también se usa en los siguientes casos:

      • Instrucciones y ejemplos del sistema: Se agregan automáticamente a la instrucción. Este comportamiento no se puede modificar.
      • Instrucciones y objetivos del manual: Todas las instrucciones y los objetivos que escribas se agregarán a la instrucción en su totalidad.
      • Ejemplos de pocas muestras del manual: Se agregan en orden (de forma predeterminada) o con un algoritmo que elijas (como el orden de mejor coincidencia de expresión regular). Los ejemplos se seleccionan para que se ajusten al presupuesto de tokens de entrada después de incluir todos los demás elementos.
      • Historial de la conversación compuesto por enunciados del usuario y del agente, contexto de transición de flujos y manuales, llamadas a herramientas y resultados en la misma sesión de todos los turnos anteriores que el manual actual controló de forma secuencial.
  • Respuesta generativa de respaldo

  • Almacén de datos

    Consulta Configuración del agente de almacén de datos.

Configuración de IVR y voz

Las siguientes opciones de configuración de IVR y voz están disponibles:

  • Text-to-Speech

    • Selección de voz

      Puedes seleccionar el idioma y la voz que se usan para la síntesis de voz.

      Para habilitar la Voz personalizada en tu agente, selecciona la opción de voz personalizada en el menú desplegable de selección de voz y especifica el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
      • Para las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a los agentes conversacionales (Dialogflow CX) tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
  • Speech-to-Text

DTMF

Consulta DTMF para integraciones de telefonía para obtener más información.

Multimodal

Consulta Call Companion.

Configuración de uso compartido

Consulta Control de acceso.

Configuración de idiomas

Agrega asistencia adicional de idiomas a tu agente. Para ver la lista completa de los idiomas, consulta la referencia de idiomas.

Detección automática de idioma

Cuando configures la detección automática de idioma, tu agente de chat detectará automáticamente el idioma del usuario final y cambiará a ese idioma. Consulta la documentación sobre la detección automática de idiomas para obtener más detalles.

Configuración de seguridad

Consulta Configuración de seguridad.

Configuración avanzada

En la actualidad, la única configuración avanzada es para el análisis de opiniones.

Configuración de la consola de AI Applications

En esta sección, se describen los parámetros de configuración disponibles para las apps del agente.

General

Los siguientes parámetros de configuración generales están disponibles para las apps del agente:

  • Nombre visible

    Es el nombre legible de tu app del agente.

  • Ubicación

    Es la región de la app del agente.

  • Bloqueo de aplicaciones

    Si está habilitada, no se permiten cambios en la app del agente.

Logging

Los siguientes parámetros de configuración de registro están disponibles para las apps del agente:

  • Habilita Cloud Logging

    Si está habilitado, los registros se enviarán a Cloud Logging.

  • Habilita el historial de conversaciones

    Si está habilitado, estará disponible el historial de conversaciones. Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad. Este parámetro de configuración no afecta si se usa el historial de conversaciones para generar respuestas del agente.

  • Habilita BigQuery Export

    Si está habilitado, el historial de conversaciones se exporta a BigQuery. También se debe habilitar el parámetro de configuración Habilitar el historial de conversaciones.

IA generativa

Los siguientes parámetros de configuración de IA generativa están disponibles para las apps del agente:

  • Selección del modelo generativo

    Selecciona el modelo generativo que los agentes deben usar de forma predeterminada.

  • Límite de tokens de entrada

    Selecciona el límite de tokens de entrada para el modelo generativo. Este es el tamaño máximo de tokens para la entrada que se envía al modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.

  • Límite de tokens de salida

    Selecciona el límite de tokens de salida para el modelo generativo. Es el tamaño máximo de tokens para la salida recibida del modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de la salida del modelo puede ser mayor.

  • Temperatura

    La temperatura de un LLM te permite controlar qué tan creativas son las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.

  • Frases prohibidas

    Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, el agente devolverá una respuesta alternativa.

  • Filtros de seguridad

    Configurar los niveles de sensibilidad de los filtros de seguridad con respecto a diferentes categorías de IA responsable (RAI) El contenido se evaluará según las siguientes cuatro categorías:

    Categoría Descripción
    Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos.
    Contenido peligroso Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales.
    Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno.
    Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona.

    El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear poco (bloquea solo las instancias de contenido perjudicial con alta probabilidad), Bloquear algo (instancias con probabilidad media y alta) y Bloquear la mayoría (probabilidad baja, media y alta) para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.

    Para obtener más información, consulta cómo configurar los atributos de seguridad.

  • Seguridad de las instrucciones

    Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.

Git

Estos parámetros de configuración proporcionan una integración de Git. Sigue las instrucciones para configurar la integración.