Los agentes tienen muchos ajustes que afectan a su comportamiento. Cada consola ofrece ajustes diferentes.
Ajustes de agente de la consola Conversational Agents
Para acceder a los ajustes del agente, sigue estos pasos:
Consola
- Abre la consola Conversational Agents.
- Elige tu proyecto de Google Cloud .
- Selecciona tu agente.
- Haz clic en el icono de configuración, situado en la esquina superior derecha.
- Cambia la configuración como quieras.
- Haz clic en Guardar.
API
Consulta los métodos get
y patch/update
del tipo Agent
.
Selecciona un protocolo y una versión para la referencia del agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso de agente | Recurso de agente |
RPC | Interfaz de agente | Interfaz de agente |
C++ | AgentsClient | No disponible |
C# | AgentsClient | No disponible |
Go | AgentsClient | No disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | No disponible | No disponible |
Python | AgentsClient | AgentsClient |
Ruby | No disponible | No disponible |
En las siguientes subsecciones se describen las diferentes categorías de ajustes de agentes.
Configuración general
Los agentes pueden usar los siguientes ajustes generales:
-
Nombre legible de tu agente.
-
La zona horaria predeterminada de tu agente.
-
Este ajuste determina si tu agente inicia la conversación con una guía generativa o con un flujo determinista.
-
La región del agente que seleccionaste al crearlo.
-
Bloquear el agente
Indica si el agente está bloqueado. No se puede editar un agente bloqueado.
-
Habilitar Cloud Logging
Indica si el agente tiene habilitado el registro en la nube.
Habilitar el historial de conversaciones
Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad.
Habilitar la ocultación de la información que introducen los usuarios finales en función del consentimiento
Si este ajuste está habilitado, puedes usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan del historial de conversaciones y de Cloud Logging. De forma predeterminada, el parámetro de sesión es
true
. Si se inhabilita este ajuste, no se ocultará nada.El consentimiento de los usuarios se recoge mediante un parámetro de sesión booleano:
$session.params.conversation-redaction
. Si este ajuste está habilitado y el parámetro de sesión tiene el valorfalse
, no se ocultará nada (se seguirán aplicando otras estrategias de ocultación). Si este ajuste está habilitado y el parámetro de sesión tiene el valortrue
, se produce la ocultación.Por ejemplo, un flujo de solicitud de consentimiento podría ser el siguiente: primero, pregunta al usuario si quiere conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". A continuación, asigna el valor
false
(sin ocultación) al parámetro de sesión en los valores predeterminados de los parámetros de la ruta "yes intent" en fulfillment y el valortrue
(se produce la ocultación) en el valor predeterminado del parámetro de la ruta "no intent".
-
Habilitar BigQuery Export
Indica si la exportación de BigQuery está habilitada.
Conjunto de datos de BigQuery
Nombre del conjunto de datos de BigQuery.
Tabla de BigQuery
Nombre de la tabla de BigQuery.
-
Puedes habilitar las sugerencias de intenciones.
-
Puedes habilitar este ajuste para enviar comentarios sobre la calidad de las respuestas del agente, como Me gusta o No me gusta.
-
Usa este ajuste para añadir una integración de Git.
Ajustes de IA generativa
Puedes usar los siguientes ajustes de IA generativa:
General
Selección de modelos generativos
Selecciona el modelo que usan las funciones generativas. Para obtener más información, consulta Versiones del modelo.
Límites de tokens
-
Selecciona el límite de tokens de entrada del modelo generativo. Este es el tamaño máximo de token de la entrada enviada al modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.
-
Selecciona el límite de tokens de salida del modelo generativo. Es el tamaño máximo de token de la salida recibida del modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de salida del modelo puede ser mayor.
-
-
La temperatura de un LLM te permite controlar el grado de creatividad de las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.
-
Este ajuste elimina algunas conversaciones anteriores de la petición de la LLM para evitar que el tamaño de la petición aumente con cada conversación secuencial gestionada por el agente. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de las peticiones.
Normalmente, sin truncamiento, cada turno posterior se añadirá al "historial de conversación" de la petición del LLM, independientemente de si es relevante para el turno actual. Esto puede provocar que la petición aumente de tamaño con cada turno. A medida que el historial de la conversación ocupa más espacio en la petición, se puede usar menos espacio para los ejemplos de few-shot (por lo que es posible que se eliminen). Con el tiempo, la petición también podría superar los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esta situación, pero ten en cuenta que, si aumentas el tamaño de las peticiones, también se incrementará la latencia de respuesta del LLM.
El truncamiento del contexto te permite definir un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones como máximo. Las conversaciones se conservan en orden de más reciente a menos reciente. Este ajuste puede ayudarte a evitar que se superen los límites de tokens. Independientemente de la opción que elijas, se conservarán al menos dos turnos de conversación, ordenados de más reciente a menos reciente.
Antes de modificar este ajuste, debes definir un límite de tokens.
Si se trunca el contexto, es posible que algunos parámetros se pierdan por error si forman parte de las conversaciones eliminadas. Evalúa detenidamente las interacciones de tu manual después de habilitar esta opción.
El presupuesto de entrada de tokens también se usa en los siguientes casos:
- Instrucciones y ejemplos del sistema: se añaden automáticamente a la petición. Este comportamiento no se puede modificar.
- Instrucciones y objetivos de la guía: las instrucciones y los objetivos que escribas se añadirán a la petición en su totalidad.
- Ejemplos de Playbook con pocos ejemplos: se añaden en orden (de forma predeterminada) o mediante un algoritmo que elijas (como el orden de la mejor coincidencia de expresiones regulares). Los ejemplos se recortan para ajustarse al presupuesto de tokens de entrada después de incluir todos los demás elementos.
- Historial de la conversación formado por las expresiones del usuario y del agente, el contexto de transición del flujo y del manual de respuestas, las llamadas a herramientas y los resultados en la misma sesión de todos los turnos anteriores gestionados secuencialmente por el manual de respuestas actual.
-
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, no se podrá completar la generación. Ten en cuenta que la lista de frases prohibidas tiene consecuencias en cada consulta y llamada a LLM, y aumentará la latencia.
-
Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable (RAI). El contenido se evaluará en función de las cuatro categorías siguientes:
Categoría Descripción Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos. Contenido peligroso Promociona o permite el acceso a bienes, servicios o actividades perjudiciales Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar atributos de seguridad.
-
Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si está habilitada, el agente rechazará las consultas de los usuarios que activen el filtro de seguridad, incluidos los ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa. Si está habilitada, puede proporcionar las siguientes opciones:
- Configuración de seguridad de las peticiones: puedes seleccionar Predeterminado para usar la configuración de seguridad predeterminada o Personalizar para especificar qué consultas de los usuarios se deben considerar seguras o no.
- Seleccionar modelo generativo: Controla el LLM que se usa para la clasificación. Si seleccionas Predeterminado (opción recomendada), se elegirá un modelo predeterminado, que puede cambiar automáticamente a medida que haya modelos más recientes y mejorados disponibles.
- Petición de seguridad: puedes seleccionar Predeterminado para usar una petición de seguridad predeterminada o Personalizar para proporcionar instrucciones que ayuden a clasificar las consultas de usuarios maliciosas. Si selecciona Predeterminado, la petición puede actualizarse automáticamente para mejorar.
- Umbral de entrada: longitud mínima de caracteres de una consulta de usuario antes de que se apliquen las comprobaciones de seguridad. Las consultas cortas son más ambiguas y pueden clasificarse incorrectamente. Las consultas que sean más pequeñas que el umbral de entrada se considerarán seguras por naturaleza.
Generative Fallback
Almacén de datos
Consulta Ajustes de agente de almacén de datos.
Flujos deterministas
Estos ajustes se aplican a todos los flujos de este agente, excepto los ajustes de aprendizaje automático, que se aplican por flujo. Para editar otros ajustes específicos del flujo, ve al flujo en la consola y edita los ajustes allí.
Entrenamiento de intenciones
Flows usa algoritmos de aprendizaje automático para entender las entradas de los usuarios finales, asociarlas con intenciones y extraer datos estructurados. Los flujos aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los flujos. A partir de estos datos, se crea un modelo para tomar decisiones sobre qué intención debe coincidir con la entrada de un usuario final. Puedes aplicar ajustes de aprendizaje automático únicos a cada flujo de un agente.
Puedes usar los siguientes ajustes de entrenamiento de la intención:
-
Si esta opción está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se asociará una intención como si estuviera escrita correctamente. La respuesta de detección de intención contendrá la entrada corregida del usuario final. Por ejemplo, si un usuario final introduce "I want an applle", se procesará como si hubiera introducido "I want an apple". Esto también se aplica a las coincidencias que incluyen entidades del sistema y personalizadas.
La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).
Advertencias y prácticas recomendadas:
- La corrección ortográfica no puede corregir los errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para los agentes que usen entradas de ASR.
- Es posible que la entrada corregida coincida con la intención incorrecta. Para solucionar este problema, añada frases que suelen no coincidir a los ejemplos negativos.
- La corrección ortográfica aumenta ligeramente el tiempo de respuesta del agente.
- Si se define un agente con jerga específica de un dominio, las correcciones pueden no ser las deseadas.
Configuración de aprendizaje automático específica del flujo
-
Puede ser uno de los siguientes:
- CLN avanzado (opción predeterminada): tecnología de CLN avanzada. Este tipo de NLU funciona mejor que el estándar, sobre todo en agentes y flujos grandes.
- CLN estándar: tecnología de CLN estándar. Dejará de recibir mejoras de calidad o nuevas funciones.
-
Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En el caso de los flujos grandes, esto puede provocar retrasos en la interfaz de usuario de la consola, por lo que debes inhabilitar este ajuste y entrenar manualmente según sea necesario para los flujos grandes.
-
Para filtrar los resultados falsos positivos y seguir obteniendo variedad en las entradas de lenguaje natural coincidentes de tu agente, puedes ajustar el umbral de clasificación del aprendizaje automático. Este ajuste controla la confianza mínima de detección de intenciones necesaria para que se produzca una coincidencia de intenciones.
Si la puntuación de confianza de una coincidencia de intención es inferior al valor del umbral, se invocará un evento de no coincidencia.
Puedes definir un valor de umbral de clasificación independiente para cada flujo de cada idioma habilitado en el agente. Esto se debe a que los diferentes idiomas funcionan mejor con umbrales de clasificación distintos. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.
-
Indica si el flujo se ha entrenado desde la última actualización de los datos del flujo.
-
Usa este botón para entrenar manualmente el flujo.
-
-
Los idiomas que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:
- Exporta tu agente al formato JSON.
- Extrae el archivo descargado.
- Busca el archivo
agent.json
. - Actualice los campos
defaultLanguageCode
ysupportedLanguageCodes
con los valores que quiera. - Restaura el agente en el mismo agente o en otro distinto del paso 1.
- Actualiza las frases de entrenamiento y los valores de las entidades específicos de cada idioma según sea necesario.
También puedes habilitar la detección y el cambio automáticos de idioma.
-
Conectividad
Plantilla de carga útil personalizada
En esta sección, puede crear descripciones y cargas útiles para plantillas de carga útil personalizadas.
-
Indica claramente qué parámetros de los parámetros de sesión se enviarán al webhook y qué parámetros de sesión se pueden definir mediante la respuesta del webhook.
Configuración de certificados de cliente
Se usa para subir certificados SSL.
Voz y respuesta de voz interactiva
Opciones de voz
-
-
Puedes seleccionar el idioma y la voz que se usarán para la síntesis de voz.
Puedes habilitar la opción Voz personalizada para tu agente seleccionándola en el menú desplegable de voces y especificando el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.También puedes usar la clonación de voz.
- Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
tenga el rol "Predictor de AutoML" en tu proyecto de voz personalizado. - En el caso de las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a Conversational Agents (Dialogflow CX) tenga asignado el rol "Predictor de AutoML" en tu proyecto de voz personalizada.
- Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflow
-
Controla la altura o la gravedad relativas del tono de la voz.
-
Controla la velocidad de la voz.
-
Utiliza estos ajustes para indicar al agente cómo se pronuncian determinadas frases mediante la codificación fonética X-SAMPA.
-
-
Habilitar la adaptación automática de voz
Consulta Adaptación de voz automática.
Habilitar ajustes avanzados de voz
Para obtener más información sobre las opciones avanzadas de voz, consulta la guía Ajustes avanzados de voz.
-
Consulta DTMF para integraciones de telefonía para obtener más información.
Habilitar la adaptación manual de voz
Consulta la adaptación manual de voz.
-
Llamar a un acompañante
Consulta Asistente de llamadas.
Ajustes de la interfaz de usuario
Puedes usar estos ajustes para personalizar las interfaces de usuario de Mensajes y Asistente de llamadas.
Seguridad
Consulta Configuración de seguridad y Control de acceso.
Ajustes del agente de la consola de Dialogflow CX
Para acceder a los ajustes del agente, sigue estos pasos:
Consola
- Abre la consola.
- Elige tu proyecto de Google Cloud .
- Selecciona tu agente.
- Haz clic en Configuración del agente.
- Cambia la configuración como quieras.
- Haz clic en Guardar.
API
Consulta los métodos get
y patch/update
del tipo Agent
.
Selecciona un protocolo y una versión para la referencia del agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso de agente | Recurso de agente |
RPC | Interfaz de agente | Interfaz de agente |
C++ | AgentsClient | No disponible |
C# | AgentsClient | No disponible |
Go | AgentsClient | No disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | No disponible | No disponible |
Python | AgentsClient | AgentsClient |
Ruby | No disponible | No disponible |
Configuración general
Los agentes pueden usar los siguientes ajustes generales:
Nombre visible
Nombre legible de tu agente.
Zona horaria
La zona horaria predeterminada de tu agente.
Idioma predeterminado
El idioma predeterminado que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:
- Exporta tu agente al formato JSON.
- Descomprime el archivo descargado.
- Busca el archivo
agent.json
. - Actualice los campos
defaultLanguageCode
ysupportedLanguageCodes
con los valores que quiera. - Restaura el agente en el mismo agente o en otro distinto del paso 1.
- Actualiza las frases de entrenamiento y los valores de las entidades específicos de cada idioma según sea necesario.
Bloqueo de agente
Bloquear el agente
Indica si el agente está bloqueado. No se puede editar un agente bloqueado.
Ajustes de registro
Habilitar Cloud Logging
Indica si el agente tiene habilitado el registro en la nube.
Habilitar el registro de interacciones
Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad.
Habilitar la ocultación de la información que introducen los usuarios finales en función del consentimiento
Si se habilita este ajuste, podrá usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan del historial de conversaciones y de Cloud Logging. De forma predeterminada, el parámetro de sesión es
true
. Si se inhabilita este ajuste, no se ocultará nada.El consentimiento de los usuarios se recoge mediante un parámetro de sesión booleano:
$session.params.conversation-redaction
. Si este ajuste está habilitado y el parámetro de sesión tiene el valorfalse
, no se ocultará nada (se seguirán aplicando otras estrategias de ocultación). Si este ajuste está habilitado y el parámetro de sesión tiene el valortrue
, se produce la ocultación.Por ejemplo, un flujo de solicitud de consentimiento podría ser el siguiente: primero, pregunta al usuario si quiere conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". A continuación, asigna el valor
false
(sin ocultación) al parámetro de sesión en los valores predeterminados de los parámetros de la ruta "yes intent" en fulfillment y el valortrue
(se produce la ocultación) en el valor predeterminado del parámetro de la ruta "no intent".
BigQuery Export
Habilitar BigQuery Export
Indica si la exportación de BigQuery está habilitada.
Conjunto de datos de BigQuery
Nombre del conjunto de datos de BigQuery.
Tabla de BigQuery
Nombre de la tabla de BigQuery.
Sugerencias de intención
Puedes habilitar las sugerencias de intenciones.
Plantilla de carga útil personalizada
En esta sección, puede crear descripciones y cargas útiles para plantillas de carga útil personalizadas.
Configuración de aprendizaje automático
Los agentes conversacionales (Dialogflow CX) usan algoritmos de aprendizaje automático para entender las entradas de los usuarios finales, asociarlas con intenciones y extraer datos estructurados. Los agentes conversacionales (Dialogflow CX) aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los agentes conversacionales (Dialogflow CX). A partir de estos datos, se crea un modelo para tomar decisiones sobre qué intención debe coincidir con la entrada de un usuario final. Puedes aplicar ajustes de aprendizaje automático únicos a cada flujo de un agente, y el modelo creado por Conversational Agents (Dialogflow CX) es único para cada flujo.
Están disponibles los siguientes ajustes de aprendizaje automático en todo el agente:
Permitir que la IA corrija la ortografía
Si esta opción está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se asociará una intención como si estuviera escrita correctamente. La respuesta de detección de intención contendrá la entrada corregida del usuario final. Por ejemplo, si un usuario final introduce "I want an applle", se procesará como si hubiera introducido "I want an apple". Esto también se aplica a las coincidencias que incluyen entidades del sistema y personalizadas.
La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).
Advertencias y prácticas recomendadas:
- La corrección ortográfica no puede corregir los errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para los agentes que usen entradas de ASR.
- Es posible que la entrada corregida coincida con la intención incorrecta. Para solucionar este problema, añada frases que suelen no coincidir a los ejemplos negativos.
- La corrección ortográfica aumenta ligeramente el tiempo de respuesta del agente.
- Si se define un agente con jerga específica de un dominio, las correcciones pueden no ser las deseadas.
Están disponibles los siguientes ajustes de aprendizaje automático específicos del flujo de trabajo:
Tipo de NLU
Puede ser uno de los siguientes:
- CLN avanzado (opción predeterminada): tecnología de CLN avanzada. Este tipo de NLU funciona mejor que el estándar, sobre todo en agentes y flujos grandes.
- CLN estándar: tecnología de CLN estándar. Dejará de recibir mejoras de calidad o nuevas funciones.
Tren de coches
Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En el caso de los flujos grandes, esto puede provocar retrasos en la interfaz de usuario de la consola, por lo que debes inhabilitar este ajuste y entrenar manualmente según sea necesario para los flujos grandes.
Umbral de clasificación
Para filtrar los resultados falsos positivos y seguir obteniendo variedad en las entradas de lenguaje natural coincidentes de tu agente, puedes ajustar el umbral de clasificación del aprendizaje automático. Este ajuste controla la confianza mínima de detección de intenciones necesaria para que se produzca una coincidencia de intenciones.
Si la puntuación de confianza de una coincidencia de intención es inferior al valor del umbral, se invocará un evento de no coincidencia.
Puedes definir un valor de umbral de clasificación independiente para cada flujo de cada idioma habilitado en el agente. Esto se debe a que los diferentes idiomas funcionan mejor con umbrales de clasificación distintos. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.
Estado del entrenamiento
Indica si el flujo se ha entrenado desde la última actualización de los datos del flujo.
Entrenar NLU
Usa este botón para entrenar manualmente el flujo.
Ajustes de IA generativa
Puedes usar los siguientes ajustes de IA generativa:
General
Frases prohibidas
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, no se podrá completar la generación.
Filtros de seguridad
Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable. El contenido se evaluará en función de las cuatro categorías siguientes:
Categoría Descripción Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos. Contenido peligroso Promociona o permite el acceso a bienes, servicios y actividades perjudiciales Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar atributos de seguridad.
Seguridad de las peticiones
Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si se habilita, el agente intentará evitar ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa.
Agente generativo
Selección de modelo generativo
Selecciona el modelo que usan las funciones generativas. Para obtener más información, consulta Versiones del modelo.
Truncamiento del contexto de la guía
La truncación del contexto de la guía elimina algunas de las respuestas anteriores de la guía para evitar que el tamaño de la petición aumente con cada respuesta secuencial que gestione la guía. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de las peticiones.
Normalmente, sin truncamiento, cada turno posterior se añadirá al "historial de conversación" de la petición del LLM, independientemente de si es relevante para el turno actual. Esto puede provocar que la petición aumente de tamaño con cada turno. A medida que el historial de la conversación ocupa más espacio en la petición, se puede usar menos espacio para los ejemplos de few-shot (por lo que es posible que se eliminen). Con el tiempo, la petición también podría superar los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esta situación, pero ten en cuenta que, si aumentas el tamaño de las peticiones, también se incrementará la latencia de respuesta del LLM.
El truncamiento del contexto del manual de respuestas te permite definir un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones como máximo. Las conversaciones se conservan en orden de más reciente a menos reciente. Este ajuste puede ayudarte a evitar que se superen los límites de tokens. Independientemente de la opción que elijas, se conservarán al menos dos turnos de conversación, ordenados de más reciente a menos reciente.
Antes de modificar este ajuste, debes definir un límite de tokens.
Importante: Si se trunca el contexto, es posible que algunos parámetros se pierdan por error si forman parte de las conversaciones eliminadas. Evalúa detenidamente las interacciones de tu manual después de habilitar esta opción.
El presupuesto de entrada de tokens también se usa en los siguientes casos:
- Instrucciones y ejemplos del sistema: se añaden automáticamente a la petición. Este comportamiento no se puede modificar.
- Instrucciones y objetivos de la guía: las instrucciones y los objetivos que escribas se añadirán a la petición en su totalidad.
- Ejemplos de Playbook con pocos ejemplos: se añaden en orden (de forma predeterminada) o mediante un algoritmo que elijas (como el orden de la mejor coincidencia de expresiones regulares). Los ejemplos se recortan para ajustarse al presupuesto de tokens de entrada después de incluir todos los demás elementos.
- Historial de la conversación formado por las expresiones del usuario y del agente, el contexto de transición del flujo y del manual de respuestas, las llamadas a herramientas y los resultados en la misma sesión de todos los turnos anteriores gestionados secuencialmente por el manual de respuestas actual.
Generative Fallback
Configuración de las peticiones de texto
Almacén de datos
Consulta Ajustes de agente de almacén de datos.
Configuración de voz e IVR
Puedes usar los siguientes ajustes de voz y de IVR:
Text-to-Speech
Selección de voz
Puedes seleccionar el idioma y la voz que se usarán para la síntesis de voz.
Puedes habilitar la opción Voz personalizada para tu agente seleccionándola en el menú desplegable de voces y especificando el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
tenga el rol "Predictor de AutoML" en tu proyecto de voz personalizado. - En el caso de las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a Conversational Agents (Dialogflow CX) tenga asignado el rol "Predictor de AutoML" en tu proyecto de voz personalizada.
- Si usas una pasarela telefónica, asegúrate de que la cuenta de servicio Agente de servicio de Dialogflow
Speech-to-Text
Habilitar la adaptación de voz automática
Consulta Adaptación de voz automática.
Configuración avanzada de voz
Para obtener más información sobre las opciones avanzadas de voz, consulta la guía Ajustes avanzados de voz.
DTMF
Consulta DTMF para integraciones de telefonía para obtener más información.
Multimodal
Consulta Asistente de llamadas.
Opciones para compartir
Consulta Control de acceso.
Configuración de idiomas
Añade asistencia para otros idiomas a tu agente. Para ver la lista completa de idiomas, consulta la referencia de idiomas.
Detección automática de idioma
Cuando configures la detección automática de idioma, tu agente de chat detectará automáticamente el idioma del usuario final y cambiará a ese idioma. Para obtener más información, consulta la documentación sobre la detección automática de idioma.
Configuración de seguridad
Consulta Configuración de seguridad.
Configuración avanzada
Actualmente, la única opción avanzada es la del análisis de sentimiento.
Configuración de la consola de aplicaciones de IA
En esta sección se describen los ajustes disponibles para las aplicaciones de agente.
General
Las siguientes opciones generales están disponibles para las aplicaciones de agente:
Nombre visible
Nombre legible de tu aplicación de agente.
Ubicación
La región de la aplicación de agente.
Bloqueo de aplicaciones
Si está habilitada, no se permiten cambios en la aplicación del agente.
Almacenamiento de registros
Los siguientes ajustes de registro están disponibles para las aplicaciones de agente:
Habilitar Cloud Logging
Si está habilitada, los registros se enviarán a Cloud Logging.
Habilitar historial de conversaciones
Si está habilitada, estará disponible el historial de conversaciones. Indica si quieres que Google recoja y almacene consultas de usuarios finales anonimizadas para mejorar la calidad. Este ajuste no afecta a si se usa el historial de conversaciones para generar respuestas del agente.
Habilitar BigQuery Export
Si está habilitada, el historial de conversaciones se exporta a BigQuery. También debe estar habilitada la opción Habilitar historial de conversaciones.
IAgenerativa
Los siguientes ajustes de IA generativa están disponibles para las aplicaciones de agente:
Selección de modelo generativo
Selecciona el modelo generativo que deben usar los agentes de forma predeterminada.
Límite de tokens de entrada
Selecciona el límite de tokens de entrada del modelo generativo. Este es el tamaño máximo de token de la entrada enviada al modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.
Límite de tokens de salida
Selecciona el límite de tokens de salida del modelo generativo. Es el tamaño máximo de token de la salida recibida del modelo. Según el modelo, un token puede ser un carácter o una palabra. Los límites de tokens más pequeños tienen una latencia menor, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de salida del modelo puede ser mayor.
Temperatura
La temperatura de un LLM te permite controlar el grado de creatividad de las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.
Frases prohibidas
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la petición o en la respuesta generada, el agente devolverá una respuesta alternativa.
Filtros de seguridad
Configurar los niveles de sensibilidad de los filtros de seguridad en relación con las diferentes categorías de IA responsable. El contenido se evaluará en función de las cuatro categorías siguientes:
Categoría Descripción Incitación al odio Comentarios negativos u ofensivos dirigidos a la identidad o a atributos protegidos. Contenido peligroso Promociona o permite el acceso a bienes, servicios y actividades perjudiciales Contenido sexual explícito Incluye referencias a actos sexuales u otro contenido lascivo Acoso Comentarios malintencionados, intimidatorios, de acoso o abusivos dirigidos a otra persona El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones de cada categoría: Bloquear pocos (solo se bloquean las instancias de contenido dañino con una probabilidad alta), Bloquear algunos (instancias con una probabilidad media y alta) y Bloquear la mayoría (instancias con una probabilidad baja, media y alta). También puedes acceder a la opción restringida No bloquear, que inhabilita las comprobaciones de RAI de la categoría después de enviar una solicitud de confirmación de riesgos para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar atributos de seguridad.
Seguridad de las peticiones
Puedes activar la opción Habilitar comprobación de seguridad de las peticiones para habilitar las comprobaciones de seguridad de las peticiones. Si se habilita, el agente intentará evitar ataques de inyección de peticiones. Estos ataques se pueden usar para revelar partes de la petición del agente o para proporcionar respuestas que el agente no debería dar. Para ello, se envía una petición adicional a un LLM que comprueba si la consulta del usuario puede ser maliciosa.
Git
Estos ajustes proporcionan una integración de Git. Sigue las instrucciones para configurar la integración.