Configuración de los agentes

Los agentes tienen muchos ajustes que afectan a su comportamiento. Cada consola ofrece ajustes diferentes.

Ajustes de agente de la consola Conversational Agents

Para acceder a los ajustes del agente, sigue estos pasos:

Consola

  1. Abre la consola Conversational Agents.
  2. Elige tu proyecto de Google Cloud .
  3. Selecciona tu agente.
  4. Haz clic en el icono de configuración, situado en la esquina superior derecha.
  5. Cambia la configuración como quieras.
  6. Haz clic en Guardar.

API

Consulta los métodos get y patch/update del tipo Agent.

Selecciona un protocolo y una versión para la referencia del agente:

Protocolo V3 V3beta1
REST Recurso de agente Recurso de agente
RPC Interfaz de agente Interfaz de agente
C++ AgentsClient No disponible
C# AgentsClient No disponible
Go AgentsClient No disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP No disponible No disponible
Python AgentsClient AgentsClient
Ruby No disponible No disponible

En las siguientes subsecciones se describen las diferentes categorías de ajustes de agentes.

Configuración general

Los agentes pueden usar los siguientes ajustes generales:

  • Nombre visible

    Nombre legible de tu agente.

  • Zona horaria

    La zona horaria predeterminada de tu agente.

  • Iniciar una conversación

    Este ajuste determina si tu agente inicia la conversación con una guía generativa o con un flujo determinista.

  • Ubicación del agente

    La región del agente que seleccionaste al crearlo.

  • Bloqueo de agente

    • Bloquear el agente

      Indica si el agente está bloqueado. No se puede editar un agente bloqueado.

  • Ajustes de registro

    • Habilitar Cloud Logging

      Indica si el agente tiene habilitado el registro en la nube.

    • Habilitar el historial de conversaciones

      Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad.

    • Habilitar la ocultación de la información que introducen los usuarios finales en función del consentimiento

      Si este ajuste está habilitado, puedes usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan del historial de conversaciones y de Cloud Logging. De forma predeterminada, el parámetro de sesión es true. Si se inhabilita este ajuste, no se ocultará nada.

      El consentimiento de los usuarios se recoge mediante un parámetro de sesión booleano: $session.params.conversation-redaction. Si este ajuste está habilitado y el parámetro de sesión tiene el valor false, no se ocultará nada (se seguirán aplicando otras estrategias de ocultación). Si este ajuste está habilitado y el parámetro de sesión tiene el valor true, se produce la ocultación.

      Por ejemplo, un flujo de solicitud de consentimiento podría ser el siguiente: primero, pregunta al usuario si quiere conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". A continuación, asigna el valor false (sin ocultación) al parámetro de sesión en los valores predeterminados de los parámetros de la ruta "yes intent" en fulfillment y el valor true (se produce la ocultación) en el valor predeterminado del parámetro de la ruta "no intent".

  • BigQuery Export

    • Habilitar BigQuery Export

      Indica si la exportación de BigQuery está habilitada.

    • Conjunto de datos de BigQuery

      Nombre del conjunto de datos de BigQuery.

    • Tabla de BigQuery

      Nombre de la tabla de BigQuery.

  • Sugerencias de intención

    Puedes habilitar las sugerencias de intenciones.

  • Comentarios de los usuarios

    Puedes habilitar este ajuste para enviar comentarios sobre la calidad de las respuestas del agente, como Me gusta o No me gusta.

  • Integración con Git

    Usa este ajuste para añadir una integración de Git.

Ajustes de IA generativa

Puedes usar los siguientes ajustes de IA generativa:

  • General

    • Selección de modelos generativos

      Selecciona el modelo que usan las funciones generativas. Para obtener más información, consulta Versiones del modelo.

    • Límites de tokens

      • Límite de tokens de entrada

        Selecciona el límite de tokens de entrada del modelo generativo. Este es el tamaño máximo de token de la entrada enviada al modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.

      • Límite de tokens de salida

        Selecciona el límite de tokens de salida del modelo generativo. Es el tamaño máximo de token de la salida recibida del modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de salida del modelo puede ser mayor.

    • Temperatura

      La temperatura de un LLM te permite controlar el grado de creatividad de las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.

    • Límites de tokens de contexto

      Este ajuste elimina algunas conversaciones anteriores de la petición de la LLM para evitar que el tamaño de la petición aumente con cada conversación secuencial gestionada por el agente. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de las peticiones.

      Normalmente, sin truncamiento, cada turno posterior se añadirá al "historial de conversación" de la petición del LLM, independientemente de si es relevante para el turno actual. Esto puede provocar que la petición aumente de tamaño con cada turno. A medida que el historial de la conversación ocupa más espacio en la petición, se puede usar menos espacio para los ejemplos de few-shot (por lo que es posible que se eliminen). Con el tiempo, la petición también podría superar los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esta situación, pero ten en cuenta que, si aumentas el tamaño de las peticiones, también se incrementará la latencia de respuesta del LLM.

      El truncamiento del contexto te permite definir un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones como máximo. Las conversaciones se conservan en orden de más reciente a menos reciente. Este ajuste puede ayudarte a evitar que se superen los límites de tokens. Independientemente de la opción que elijas, se conservarán al menos dos turnos de conversación, ordenados de más reciente a menos reciente.

      Antes de modificar este ajuste, debes definir un límite de tokens.

      Si se trunca el contexto, es posible que algunos parámetros se pierdan por error si forman parte de las conversaciones eliminadas. Evalúa detenidamente las interacciones de tu manual después de habilitar esta opción.

      El presupuesto de entrada de tokens también se usa en los siguientes casos:

      • Instrucciones y ejemplos del sistema: se añaden automáticamente a la petición. Este comportamiento no se puede modificar.
      • Instrucciones y objetivos de la guía: las instrucciones y los objetivos que escribas se añadirán a la petición en su totalidad.
      • Ejemplos de Playbook con pocos ejemplos: se añaden en orden (de forma predeterminada) o mediante un algoritmo que elijas (como el orden de la mejor coincidencia de expresiones regulares). Los ejemplos se recortan para ajustarse al presupuesto de tokens de entrada después de incluir todos los demás elementos.
      • Historial de la conversación formado por las expresiones del usuario y del agente, el contexto de transición del flujo y del manual de respuestas, las llamadas a herramientas y los resultados en la misma sesión de todos los turnos anteriores gestionados secuencialmente por el manual de respuestas actual.
    • Frases prohibidas

      Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, no se podrá completar la generación. Ten en cuenta que la lista de frases prohibidas tiene consecuencias en cada consulta y llamada a LLM, y aumentará la latencia.

    • Filtros de seguridad

      Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable (RAI). El contenido se evaluará en función de las cuatro categorías siguientes:

      Categoría Descripción
      Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos.
      Contenido peligroso Promociona o permite el acceso a bienes, servicios o actividades perjudiciales
      Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo
      Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona

      El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.

      Para obtener más información, consulta cómo configurar atributos de seguridad.

    • Seguridad de las peticiones

      Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si está habilitada, el agente rechazará las consultas de los usuarios que activen el filtro de seguridad, incluidos los ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa. Si está habilitada, puede proporcionar las siguientes opciones:

      • Configuración de seguridad de las peticiones: puedes seleccionar Predeterminado para usar la configuración de seguridad predeterminada o Personalizar para especificar qué consultas de los usuarios se deben considerar seguras o no.
      • Seleccionar modelo generativo: Controla el LLM que se usa para la clasificación. Si seleccionas Predeterminado (opción recomendada), se elegirá un modelo predeterminado, que puede cambiar automáticamente a medida que haya modelos más recientes y mejorados disponibles.
      • Petición de seguridad: puedes seleccionar Predeterminado para usar una petición de seguridad predeterminada o Personalizar para proporcionar instrucciones que ayuden a clasificar las consultas de usuarios maliciosas. Si selecciona Predeterminado, la petición puede actualizarse automáticamente para mejorar.
      • Umbral de entrada: longitud mínima de caracteres de una consulta de usuario antes de que se apliquen las comprobaciones de seguridad. Las consultas cortas son más ambiguas y pueden clasificarse incorrectamente. Las consultas que sean más pequeñas que el umbral de entrada se considerarán seguras por naturaleza.
    • Generative Fallback

  • Almacén de datos

    Consulta Ajustes de agente de almacén de datos.

Flujos deterministas

Estos ajustes se aplican a todos los flujos de este agente, excepto los ajustes de aprendizaje automático, que se aplican por flujo. Para editar otros ajustes específicos del flujo, ve al flujo en la consola y edita los ajustes allí.

  • Entrenamiento de intenciones

    Flows usa algoritmos de aprendizaje automático para entender las entradas de los usuarios finales, asociarlas con intenciones y extraer datos estructurados. Los flujos aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los flujos. A partir de estos datos, se crea un modelo para tomar decisiones sobre qué intención debe coincidir con la entrada de un usuario final. Puedes aplicar ajustes de aprendizaje automático únicos a cada flujo de un agente.

    Puedes usar los siguientes ajustes de entrenamiento de la intención:

    • Corrección ortográfica

      Si esta opción está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se asociará una intención como si estuviera escrita correctamente. La respuesta de detección de intención contendrá la entrada corregida del usuario final. Por ejemplo, si un usuario final introduce "I want an applle", se procesará como si hubiera introducido "I want an apple". Esto también se aplica a las coincidencias que incluyen entidades del sistema y personalizadas.

      La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).

      Advertencias y prácticas recomendadas:

      • La corrección ortográfica no puede corregir los errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para los agentes que usen entradas de ASR.
      • Es posible que la entrada corregida coincida con la intención incorrecta. Para solucionar este problema, añada frases que suelen no coincidir a los ejemplos negativos.
      • La corrección ortográfica aumenta ligeramente el tiempo de respuesta del agente.
      • Si se define un agente con jerga específica de un dominio, las correcciones pueden no ser las deseadas.
    • Configuración de aprendizaje automático específica del flujo

      • Tipo de NLU

        Puede ser uno de los siguientes:

      • Tren de automóviles

        Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En el caso de los flujos grandes, esto puede provocar retrasos en la interfaz de usuario de la consola, por lo que debes inhabilitar este ajuste y entrenar manualmente según sea necesario para los flujos grandes.

      • Umbral de clasificación

        Para filtrar los resultados falsos positivos y seguir obteniendo variedad en las entradas de lenguaje natural coincidentes de tu agente, puedes ajustar el umbral de clasificación del aprendizaje automático. Este ajuste controla la confianza mínima de detección de intenciones necesaria para que se produzca una coincidencia de intenciones.

        Si la puntuación de confianza de una coincidencia de intención es inferior al valor del umbral, se invocará un evento de no coincidencia.

        Puedes definir un valor de umbral de clasificación independiente para cada flujo de cada idioma habilitado en el agente. Esto se debe a que los diferentes idiomas funcionan mejor con umbrales de clasificación distintos. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.

      • Estado de la formación

        Indica si el flujo se ha entrenado desde la última actualización de los datos del flujo.

      • Entrenar

        Usa este botón para entrenar manualmente el flujo.

    • Idioma

      Los idiomas que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:

      1. Exporta tu agente al formato JSON.
      2. Extrae el archivo descargado.
      3. Busca el archivo agent.json.
      4. Actualice los campos defaultLanguageCode y supportedLanguageCodes con los valores que quiera.
      5. Restaura el agente en el mismo agente o en otro distinto del paso 1.
      6. Actualiza las frases de entrenamiento y los valores de las entidades específicos de cada idioma según sea necesario.

      También puedes habilitar la detección y el cambio automáticos de idioma.

Conectividad

  • Plantilla de carga útil personalizada

    En esta sección, puede crear descripciones y cargas útiles para plantillas de carga útil personalizadas.

  • Definición de parámetros

    Indica claramente qué parámetros de los parámetros de sesión se enviarán al webhook y qué parámetros de sesión se pueden definir mediante la respuesta del webhook.

  • Configuración de certificados de cliente

    Se usa para subir certificados SSL.

Voz y respuesta de voz interactiva

  • Opciones de voz

    • Text-to-Speech

      • Selección por voz

        Puedes seleccionar el idioma y la voz que se usarán para la síntesis de voz.

        Puedes habilitar la opción Voz personalizada para tu agente seleccionándola en el menú desplegable de voces y especificando el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        También puedes usar la clonación de voz.

        • Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflowservice-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tenga el rol "Predictor de AutoML" en tu proyecto de voz personalizado.
        • En el caso de las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a Conversational Agents (Dialogflow CX) tenga asignado el rol "Predictor de AutoML" en tu proyecto de voz personalizada.
      • Tono de voz

        Controla la altura o la gravedad relativas del tono de la voz.

      • Velocidad de elocución

        Controla la velocidad de la voz.

      • Pronunciación

        Utiliza estos ajustes para indicar al agente cómo se pronuncian determinadas frases mediante la codificación fonética X-SAMPA.

    • Speech-to-Text

  • Llamar a un acompañante

    Consulta Asistente de llamadas.

Ajustes de la interfaz de usuario

Puedes usar estos ajustes para personalizar las interfaces de usuario de Mensajes y Asistente de llamadas.

Seguridad

Consulta Configuración de seguridad y Control de acceso.

Ajustes del agente de la consola de Dialogflow CX

Para acceder a los ajustes del agente, sigue estos pasos:

Consola

  1. Abre la consola.
  2. Elige tu proyecto de Google Cloud .
  3. Selecciona tu agente.
  4. Haz clic en Configuración del agente.
  5. Cambia la configuración como quieras.
  6. Haz clic en Guardar.

API

Consulta los métodos get y patch/update del tipo Agent.

Selecciona un protocolo y una versión para la referencia del agente:

Protocolo V3 V3beta1
REST Recurso de agente Recurso de agente
RPC Interfaz de agente Interfaz de agente
C++ AgentsClient No disponible
C# AgentsClient No disponible
Go AgentsClient No disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP No disponible No disponible
Python AgentsClient AgentsClient
Ruby No disponible No disponible

Configuración general

Los agentes pueden usar los siguientes ajustes generales:

  • Nombre visible

    Nombre legible de tu agente.

  • Zona horaria

    La zona horaria predeterminada de tu agente.

  • Idioma predeterminado

    El idioma predeterminado que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:

    1. Exporta tu agente al formato JSON.
    2. Descomprime el archivo descargado.
    3. Busca el archivo agent.json.
    4. Actualice los campos defaultLanguageCode y supportedLanguageCodes con los valores que quiera.
    5. Restaura el agente en el mismo agente o en otro distinto del paso 1.
    6. Actualiza las frases de entrenamiento y los valores de las entidades específicos de cada idioma según sea necesario.
  • Bloqueo de agente

    • Bloquear el agente

      Indica si el agente está bloqueado. No se puede editar un agente bloqueado.

  • Ajustes de registro

    • Habilitar Cloud Logging

      Indica si el agente tiene habilitado el registro en la nube.

    • Habilitar el registro de interacciones

      Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad.

    • Habilitar la ocultación de la información que introducen los usuarios finales en función del consentimiento

      Si se habilita este ajuste, podrá usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan del historial de conversaciones y de Cloud Logging. De forma predeterminada, el parámetro de sesión es true. Si se inhabilita este ajuste, no se ocultará nada.

      El consentimiento de los usuarios se recoge mediante un parámetro de sesión booleano: $session.params.conversation-redaction. Si este ajuste está habilitado y el parámetro de sesión tiene el valor false, no se ocultará nada (se seguirán aplicando otras estrategias de ocultación). Si este ajuste está habilitado y el parámetro de sesión tiene el valor true, se produce la ocultación.

      Por ejemplo, un flujo de solicitud de consentimiento podría ser el siguiente: primero, pregunta al usuario si quiere conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". A continuación, asigna el valor false (sin ocultación) al parámetro de sesión en los valores predeterminados de los parámetros de la ruta "yes intent" en fulfillment y el valor true (se produce la ocultación) en el valor predeterminado del parámetro de la ruta "no intent".

  • BigQuery Export

    • Habilitar BigQuery Export

      Indica si la exportación de BigQuery está habilitada.

    • Conjunto de datos de BigQuery

      Nombre del conjunto de datos de BigQuery.

    • Tabla de BigQuery

      Nombre de la tabla de BigQuery.

  • Sugerencias de intención

    Puedes habilitar las sugerencias de intenciones.

  • Plantilla de carga útil personalizada

    En esta sección, puede crear descripciones y cargas útiles para plantillas de carga útil personalizadas.

Configuración de aprendizaje automático

Los agentes conversacionales (Dialogflow CX) usan algoritmos de aprendizaje automático para entender las entradas de los usuarios finales, asociarlas con intenciones y extraer datos estructurados. Los agentes conversacionales (Dialogflow CX) aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los agentes conversacionales (Dialogflow CX). A partir de estos datos, se crea un modelo para tomar decisiones sobre qué intención debe coincidir con la entrada de un usuario final. Puedes aplicar ajustes de aprendizaje automático únicos a cada flujo de un agente, y el modelo creado por Conversational Agents (Dialogflow CX) es único para cada flujo.

Están disponibles los siguientes ajustes de aprendizaje automático en todo el agente:

  • Permitir que la IA corrija la ortografía

    Si esta opción está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se asociará una intención como si estuviera escrita correctamente. La respuesta de detección de intención contendrá la entrada corregida del usuario final. Por ejemplo, si un usuario final introduce "I want an applle", se procesará como si hubiera introducido "I want an apple". Esto también se aplica a las coincidencias que incluyen entidades del sistema y personalizadas.

    La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).

    Advertencias y prácticas recomendadas:

    • La corrección ortográfica no puede corregir los errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para los agentes que usen entradas de ASR.
    • Es posible que la entrada corregida coincida con la intención incorrecta. Para solucionar este problema, añada frases que suelen no coincidir a los ejemplos negativos.
    • La corrección ortográfica aumenta ligeramente el tiempo de respuesta del agente.
    • Si se define un agente con jerga específica de un dominio, las correcciones pueden no ser las deseadas.

Están disponibles los siguientes ajustes de aprendizaje automático específicos del flujo de trabajo:

  • Tipo de NLU

    Puede ser uno de los siguientes:

  • Tren de coches

    Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En el caso de los flujos grandes, esto puede provocar retrasos en la interfaz de usuario de la consola, por lo que debes inhabilitar este ajuste y entrenar manualmente según sea necesario para los flujos grandes.

  • Umbral de clasificación

    Para filtrar los resultados falsos positivos y seguir obteniendo variedad en las entradas de lenguaje natural coincidentes de tu agente, puedes ajustar el umbral de clasificación del aprendizaje automático. Este ajuste controla la confianza mínima de detección de intenciones necesaria para que se produzca una coincidencia de intenciones.

    Si la puntuación de confianza de una coincidencia de intención es inferior al valor del umbral, se invocará un evento de no coincidencia.

    Puedes definir un valor de umbral de clasificación independiente para cada flujo de cada idioma habilitado en el agente. Esto se debe a que los diferentes idiomas funcionan mejor con umbrales de clasificación distintos. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.

  • Estado del entrenamiento

    Indica si el flujo se ha entrenado desde la última actualización de los datos del flujo.

  • Entrenar NLU

    Usa este botón para entrenar manualmente el flujo.

Ajustes de IA generativa

Puedes usar los siguientes ajustes de IA generativa:

  • General

    • Frases prohibidas

      Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, no se podrá completar la generación.

    • Filtros de seguridad

      Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable. El contenido se evaluará en función de las cuatro categorías siguientes:

      Categoría Descripción
      Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos.
      Contenido peligroso Promociona o permite el acceso a bienes, servicios y actividades perjudiciales
      Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo
      Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona

      El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.

      Para obtener más información, consulta cómo configurar atributos de seguridad.

    • Seguridad de las peticiones

      Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si se habilita, el agente intentará evitar ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa.

  • Agente generativo

    • Selección de modelo generativo

      Selecciona el modelo que usan las funciones generativas. Para obtener más información, consulta Versiones del modelo.

    • Truncamiento del contexto de la guía

      La truncación del contexto de la guía elimina algunas de las respuestas anteriores de la guía para evitar que el tamaño de la petición aumente con cada respuesta secuencial que gestione la guía. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de las peticiones.

      Normalmente, sin truncamiento, cada turno posterior se añadirá al "historial de conversación" de la petición del LLM, independientemente de si es relevante para el turno actual. Esto puede provocar que la petición aumente de tamaño con cada turno. A medida que el historial de la conversación ocupa más espacio en la petición, se puede usar menos espacio para los ejemplos de few-shot (por lo que es posible que se eliminen). Con el tiempo, la petición también podría superar los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esta situación, pero ten en cuenta que, si aumentas el tamaño de las peticiones, también se incrementará la latencia de respuesta del LLM.

      El truncamiento del contexto del manual de respuestas te permite definir un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones como máximo. Las conversaciones se conservan en orden de más reciente a menos reciente. Este ajuste puede ayudarte a evitar que se superen los límites de tokens. Independientemente de la opción que elijas, se conservarán al menos dos turnos de conversación, ordenados de más reciente a menos reciente.

      Antes de modificar este ajuste, debes definir un límite de tokens.

      Importante: Si se trunca el contexto, es posible que algunos parámetros se pierdan por error si forman parte de las conversaciones eliminadas. Evalúa detenidamente las interacciones de tu manual después de habilitar esta opción.

      El presupuesto de entrada de tokens también se usa en los siguientes casos:

      • Instrucciones y ejemplos del sistema: se añaden automáticamente a la petición. Este comportamiento no se puede modificar.
      • Instrucciones y objetivos de la guía: las instrucciones y los objetivos que escribas se añadirán a la petición en su totalidad.
      • Ejemplos de Playbook con pocos ejemplos: se añaden en orden (de forma predeterminada) o mediante un algoritmo que elijas (como el orden de la mejor coincidencia de expresiones regulares). Los ejemplos se recortan para ajustarse al presupuesto de tokens de entrada después de incluir todos los demás elementos.
      • Historial de la conversación formado por las expresiones del usuario y del agente, el contexto de transición del flujo y del manual de respuestas, las llamadas a herramientas y los resultados en la misma sesión de todos los turnos anteriores gestionados secuencialmente por el manual de respuestas actual.
  • Generative Fallback

  • Almacén de datos

    Consulta Ajustes de agente de almacén de datos.

Configuración de voz e IVR

Puedes usar los siguientes ajustes de voz y de IVR:

  • Text-to-Speech

    • Selección de voz

      Puedes seleccionar el idioma y la voz que se usarán para la síntesis de voz.

      Puedes habilitar la opción Voz personalizada para tu agente seleccionándola en el menú desplegable de voces y especificando el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflowservice-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tenga el rol "Predictor de AutoML" en tu proyecto de voz personalizado.
      • En el caso de las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a Conversational Agents (Dialogflow CX) tenga asignado el rol "Predictor de AutoML" en tu proyecto de voz personalizada.
  • Speech-to-Text

DTMF

Consulta DTMF para integraciones de telefonía para obtener más información.

Multimodal

Consulta Asistente de llamadas.

Opciones para compartir

Consulta Control de acceso.

Configuración de idiomas

Añade asistencia para otros idiomas a tu agente. Para ver la lista completa de idiomas, consulta la referencia de idiomas.

Detección automática de idioma

Cuando configures la detección automática de idioma, tu agente de chat detectará automáticamente el idioma del usuario final y cambiará a ese idioma. Para obtener más información, consulta la documentación sobre la detección automática de idioma.

Configuración de seguridad

Consulta Configuración de seguridad.

Configuración avanzada

Actualmente, la única opción avanzada es la del análisis de sentimiento.

Configuración de la consola de aplicaciones de IA

En esta sección se describen los ajustes disponibles para las aplicaciones de agente.

General

Las siguientes opciones generales están disponibles para las aplicaciones de agente:

  • Nombre visible

    Nombre legible de tu aplicación de agente.

  • Ubicación

    La región de la aplicación de agente.

  • Bloqueo de aplicaciones

    Si está habilitada, no se permiten cambios en la aplicación del agente.

Almacenamiento de registros

Los siguientes ajustes de registro están disponibles para las aplicaciones de agente:

  • Habilitar Cloud Logging

    Si está habilitada, los registros se enviarán a Cloud Logging.

  • Habilitar historial de conversaciones

    Si está habilitada, estará disponible el historial de conversaciones. Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad. Este ajuste no afecta a si se usa el historial de conversaciones para generar respuestas del agente.

  • Habilitar BigQuery Export

    Si está habilitada, el historial de conversaciones se exporta a BigQuery. También debe estar habilitada la opción Habilitar historial de conversaciones.

IAgenerativa

Los siguientes ajustes de IA generativa están disponibles para las aplicaciones de agente:

  • Selección de modelo generativo

    Selecciona el modelo generativo que deben usar los agentes de forma predeterminada.

  • Límite de tokens de entrada

    Selecciona el límite de tokens de entrada del modelo generativo. Este es el tamaño máximo de token de la entrada enviada al modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.

  • Límite de tokens de salida

    Selecciona el límite de tokens de salida del modelo generativo. Es el tamaño máximo de token de la salida recibida del modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de salida del modelo puede ser mayor.

  • Temperatura

    La temperatura de un LLM te permite controlar el grado de creatividad de las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.

  • Frases prohibidas

    Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, el agente devolverá una respuesta alternativa.

  • Filtros de seguridad

    Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable. El contenido se evaluará en función de las cuatro categorías siguientes:

    Categoría Descripción
    Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos.
    Contenido peligroso Promociona o permite el acceso a bienes, servicios y actividades perjudiciales
    Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo
    Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona

    El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones de cada categoría: Bloquear pocos (solo se bloquean las instancias de contenido dañino con una probabilidad alta), Bloquear algunos (instancias con una probabilidad media y alta) y Bloquear la mayoría (instancias con una probabilidad baja, media y alta). También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.

    Para obtener más información, consulta cómo configurar atributos de seguridad.

  • Seguridad de las peticiones

    Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si se habilita, el agente intentará evitar ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa.

Git

Estos ajustes proporcionan una integración de Git. Sigue las instrucciones para configurar la integración.