Los agentes tienen muchos parámetros de configuración que afectan su comportamiento. Cada consola proporciona diferentes parámetros de configuración.
Configuración del agente de la consola de Conversational Agents
Para acceder a la configuración del agente:
Console
- Abre la consola de Conversational Agents.
- Elige tu Google Cloud proyecto.
- Selecciona el agente.
- Haz clic en este ícono de configuración en la esquina superior derecha.
- Actualiza la configuración como desees.
- Haz clic en Guardar.
API
Consulta los métodos get
y patch/update
para el tipo Agent
.
Selecciona un protocolo y una versión para la Referencia del agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso del agente | Recurso del agente |
RPC | Interfaz del agente | Interfaz del agente |
C++ | AgentsClient | No disponible |
C# | AgentsClient | No disponible |
Go | AgentsClient | No disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | No disponible | No disponible |
Python | AgentsClient | AgentsClient |
Ruby | No disponible | No disponible |
En las siguientes subsecciones, se describen las diferentes categorías de la configuración del agente.
Configuración general
Las siguientes opciones de configuración general están disponibles para los agentes:
-
Es el nombre legible para tu agente.
-
La zona horaria predeterminada del agente.
-
Este parámetro de configuración determina si tu agente inicia la conversación con una guía generativa o un flujo determinístico.
-
Es la región del agente que seleccionaste cuando lo creaste.
-
Bloquear el agente
Indica si el agente está bloqueado. No se puede editar un agente bloqueado.
-
Habilita Cloud Logging
Indica si el registro de Cloud está habilitado para el agente.
Habilita el historial de conversaciones
Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad.
Habilita la ocultación de la entrada del usuario final basada en el consentimiento
Si este parámetro de configuración está habilitado, te permite usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan en el historial de conversaciones y en Cloud Logging. De forma predeterminada, el parámetro de sesión es
true
. Si se inhabilita este parámetro de configuración, no se realizará ninguna ocultación.El consentimiento del usuario se recopila con un parámetro de sesión booleano:
$session.params.conversation-redaction
. Si este parámetro de configuración está habilitado y el parámetro de sesión se establece enfalse
, no se realizará ninguna ocultación (se seguirán aplicando otras estrategias de ocultación). Si este parámetro de configuración está habilitado y el parámetro de sesión se establece entrue
, se produce la ocultación.Un ejemplo de flujo de solicitud de consentimiento podría ser el siguiente: primero, pregúntale al usuario si desea conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". Luego, establece el parámetro de sesión en
false
(sin ocultación) en los ajustes predeterminados de parámetros de la ruta del "intent de sí" en fulfillment y entrue
(se produce la ocultación) en el ajuste predeterminado de parámetros de la ruta del "intent de no".
-
Habilita la exportación a BigQuery
Indica si la exportación a BigQuery está habilitada.
Conjunto de datos de BigQuery
Es el nombre del conjunto de datos de BigQuery.
Tabla de BigQuery
El nombre de la tabla de BigQuery.
-
Puedes habilitar las sugerencias de intención.
-
Puedes habilitar este parámetro de configuración para proporcionar comentarios sobre la calidad de las respuestas del agente, incluidos los Me gusta y los No me gusta.
-
Usa este parámetro de configuración para agregar una integración de Git.
Configuración de IA generativa
Están disponibles los siguientes parámetros de configuración de IA generativa:
General
Selección del modelo generativo
Selecciona el modelo que usan las funciones basadas en IA generativa. Para obtener más información, consulta Versiones del modelo.
Límites de tokens
-
Selecciona el límite de tokens de entrada para el modelo generativo. Este es el tamaño máximo de tokens para la entrada que se envía al modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.
-
Selecciona el límite de tokens de salida para el modelo generativo. Es el tamaño máximo de tokens para la salida recibida del modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de la salida del modelo puede ser mayor.
-
-
La temperatura de un LLM te permite controlar qué tan creativas son las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.
-
El parámetro de configuración descarta algunos turnos anteriores de la instrucción del LLM para evitar que el tamaño de la instrucción aumente con cada turno secuencial que maneja el agente. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de la instrucción.
Normalmente, sin truncamiento, cada turno posterior se agregará al "historial de conversación" de la instrucción del LLM, independientemente de si es relevante para el turno actual. En última instancia, esto puede hacer que la instrucción aumente de tamaño con cada turno. A medida que el historial de conversación ocupa más espacio en la instrucción, se puede usar menos espacio para los ejemplos de aprendizaje con pocos ejemplos (por lo que es posible que se descarten). Con el tiempo, es posible que la instrucción también supere los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esto, pero ten en cuenta que los tamaños de instrucciones más grandes también aumentan la latencia de respuesta del LLM.
El truncamiento del contexto te permite establecer un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones, como máximo. Los turnos de conversación se conservan en orden de más reciente a menos reciente. Este parámetro de configuración puede ayudarte a evitar que se excedan los límites de tokens. Independientemente del parámetro de configuración que elijas, se conservarán al menos dos turnos de conversación, en orden del más reciente al menos reciente.
Primero debes establecer un límite de tokens para poder modificar este parámetro de configuración.
Truncar el contexto puede provocar que algunos parámetros se pierdan de forma inadvertida si forman parte de los turnos descartados. Evalúa cuidadosamente las interacciones de tu guía después de habilitar esta opción.
El presupuesto de entrada de tokens también se usa en los siguientes casos:
- Instrucciones y ejemplos del sistema: Se agregan automáticamente a la instrucción. Este comportamiento no se puede modificar.
- Instrucciones y objetivos del manual: Todas las instrucciones y los objetivos que escribas se agregarán a la instrucción en su totalidad.
- Ejemplos de pocas muestras del manual: Se agregan en orden (de forma predeterminada) o con un algoritmo que elijas (como el orden de mejor coincidencia de expresión regular). Los ejemplos se seleccionan para que se ajusten al presupuesto de tokens de entrada después de incluir todos los demás elementos.
- Historial de la conversación compuesto por enunciados del usuario y del agente, contexto de transición de flujos y manuales, llamadas a herramientas y resultados en la misma sesión de todos los turnos anteriores que el manual actual controló de forma secuencial.
-
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, fallará la generación. Ten en cuenta que la lista de frases prohibidas tiene consecuencias en cada búsqueda y llamada al LLM, y aumentará la latencia.
-
Configura los niveles de sensibilidad de los filtros de seguridad con respecto a las diferentes categorías de IA responsable (RAI). El contenido se evaluará según las siguientes cuatro categorías:
Categoría Descripción Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos. Contenido peligroso Promueve o habilita el acceso a bienes, servicios o actividades perjudiciales Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno. Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar los atributos de seguridad.
-
Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.
Respuesta generativa de respaldo
Configuración de instrucciones de texto
Consulta Resguardo generativo: Define tu propia instrucción.
Almacén de datos
Flujos determinísticos
Estos parámetros de configuración se aplican a todos los flujos de este agente, excepto a la configuración del AA, que se aplica por flujo. Para editar otros parámetros de configuración específicos del flujo, navega al flujo en la consola y edita la configuración allí.
Entrenamiento de intents
Flows usa algoritmos de aprendizaje automático (AA) para comprender las entradas del usuario final, hacerlas coincidir con intents y extraer datos estructurados. Los flujos aprenden de las frases de entrenamiento que proporcionas y de los modelos de lenguaje integrados en los flujos. A partir de estos datos, compila un modelo para tomar decisiones sobre qué intent debe coincidir con determinada entrada del usuario final. Puedes aplicar opciones de configuración únicas del AA en cada flujo de un agente.
Están disponibles los siguientes parámetros de configuración del entrenamiento de intents:
-
Si esta función está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se establecerá la coincidencia con un intent como si se hubiera escrito correctamente. La respuesta del intent de detección contendrá la entrada del usuario final corregida. Por ejemplo, si un usuario final ingresa "Quiero una manzaana", se procesará como si hubiera escrito "Quiero una manzana". Esto también se aplica a las coincidencias que involucran entidades personalizadas y del sistema.
La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).
Advertencias y prácticas recomendadas:
- La corrección ortográfica no puede corregir errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para agentes que usen entradas de ASR.
- Es posible que la entrada corregida coincida con un intent equivocado. Esto puede solucionarse agregando frases habituales con coincidencias incorrectas a los ejemplos negativos.
- La corrección ortográfica aumenta levemente el tiempo de respuesta del agente.
- Si se define a un agente con jerga específica de un dominio, es posible que las correcciones no sean adecuadas.
Configuración del AA específica del flujo
-
Puede ser uno de los siguientes:
- CLN avanzada (predeterminada): Tecnología avanzada de CLN. Este tipo de CLN funciona mejor que el estándar, en especial para los agentes y los flujos grandes.
- CLN estándar: Tecnología estándar de CLN. Ya no recibirá mejoras de calidad ni funciones nuevas.
-
Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En flujos grandes, esto puede causar retrasos en la IU de la consola, por lo que debes inhabilitar esta configuración y realizar el entrenamiento de forma manual según sea necesario.
-
A fin de filtrar los resultados falsos positivos y obtener una variedad de entradas de lenguaje natural coincidentes para tu agente, puedes ajustar el umbral de clasificación de aprendizaje automático. Este parámetro de configuración controla la confianza mínima de detección de intents requerida para una coincidencia de intents.
Si la puntuación de confianza de una coincidencia de intent es menor que el valor límite, se invocará un evento de no coincidencia.
Puedes establecer un valor de umbral de clasificación independiente para cada flujo en cada idioma habilitado para el agente. Esto se debe a que los diferentes idiomas funcionan mejor con diferentes umbrales de clasificación. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.
-
Indica si el flujo se entrenó desde la última actualización de los datos del flujo.
-
Usa este botón para entrenar el flujo de forma manual.
-
-
Son los idiomas que admite tu agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:
- Exporta tu agente al formato JSON.
- Extrae el archivo descargado.
- Busca el archivo
agent.json
. - Actualiza los campos
defaultLanguageCode
ysupportedLanguageCodes
a los valores deseados. - Restablece el agente al mismo agente o a uno diferente del paso 1.
- Actualiza las frases de entrenamiento y los valores de entidades específicos para cada idioma según sea necesario.
También puedes habilitar la detección y el cambio automático de idioma.
-
Conectividad
Plantilla de carga útil personalizada
En esta sección, puedes crear descripciones y cargas útiles para las plantillas de cargas útiles personalizadas.
-
Indica claramente qué parámetros de sesión se enviarán al webhook y qué parámetros de sesión puede establecer la respuesta del webhook.
Configuración del certificado de cliente
Se usa para subir certificados SSL.
IVR y voz
Opciones de voz
-
-
Puedes seleccionar el idioma y la voz que se usan para la síntesis de voz.
Para habilitar la Voz personalizada en tu agente, selecciona la opción de voz personalizada en el menú desplegable de selección de voz y especifica el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.También puedes usar la clonación de voz.
- Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada. - Para las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a los agentes conversacionales (Dialogflow CX) tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
- Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow
-
Controla la altura o la gravedad relativa del tono del habla.
-
Controla la velocidad de habla de la voz.
-
Usa estos parámetros de configuración para proporcionar al agente la pronunciación de ciertas frases con la codificación fonética X-SAMPA.
-
-
Habilita la adaptación de voz automática
Consulta Adaptación de voz automática.
Habilita la configuración avanzada de voz
Para obtener detalles sobre las opciones de voz avanzadas, consulta la guía de Configuración avanzada de voz.
-
Consulta DTMF para integraciones de telefonía para obtener más información.
Habilita la adaptación de voz manual
Consulta Adaptación de voz manual.
-
Call companion
Consulta Call Companion.
Configuración de la IU
Puedes usar estos parámetros de configuración para personalizar las interfaces de usuario de Messenger y Call Companion.
Seguridad
Consulta Configuración de seguridad y Control de acceso.
Configuración del agente de la consola de Dialogflow CX
Para acceder a la configuración del agente:
Console
- Abre la consola.
- Elige tu Google Cloud proyecto.
- Selecciona el agente.
- Haz clic en Configuración del agente.
- Actualiza la configuración como desees.
- Haz clic en Guardar.
API
Consulta los métodos get
y patch/update
para el tipo Agent
.
Selecciona un protocolo y una versión para la Referencia del agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso del agente | Recurso del agente |
RPC | Interfaz del agente | Interfaz del agente |
C++ | AgentsClient | No disponible |
C# | AgentsClient | No disponible |
Go | AgentsClient | No disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | No disponible | No disponible |
Python | AgentsClient | AgentsClient |
Ruby | No disponible | No disponible |
Configuración general
Las siguientes opciones de configuración general están disponibles para los agentes:
Nombre visible
Es el nombre legible para tu agente.
Zona horaria
La zona horaria predeterminada del agente.
Idioma predeterminado
El idioma predeterminado que admite el agente. Una vez que se crea un agente, no se puede cambiar el idioma predeterminado. Sin embargo, puedes hacer lo siguiente:
- Exporta tu agente al formato JSON.
- Descomprime el archivo descargado.
- Busca el archivo
agent.json
. - Actualiza los campos
defaultLanguageCode
ysupportedLanguageCodes
a los valores deseados. - Restablece el agente al mismo agente o a uno diferente del paso 1.
- Actualiza las frases de entrenamiento y los valores de entidades específicos para cada idioma según sea necesario.
Bloqueo del agente
Bloquear el agente
Indica si el agente está bloqueado. No se puede editar un agente bloqueado.
Configuración de registro
Habilita Cloud Logging
Indica si el registro de Cloud está habilitado para el agente.
Habilitar el registro de interacciones
Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad.
Habilita la ocultación de la entrada del usuario final basada en el consentimiento
Si se habilita este parámetro de configuración, puedes usar un parámetro de sesión especial para controlar si la entrada y los parámetros del usuario final se ocultan en el historial de conversaciones y en Cloud Logging. De forma predeterminada, el parámetro de sesión es
true
. Si se inhabilita este parámetro de configuración, no se realizará ninguna ocultación.El consentimiento del usuario se recopila con un parámetro de sesión booleano:
$session.params.conversation-redaction
. Si este parámetro de configuración está habilitado y el parámetro de sesión se establece enfalse
, no se realizará ninguna ocultación (se seguirán aplicando otras estrategias de ocultación). Si este parámetro de configuración está habilitado y el parámetro de sesión se establece entrue
, se produce la ocultación.Un ejemplo de flujo de solicitud de consentimiento podría ser el siguiente: primero, pregúntale al usuario si desea conservar la entrada del usuario final y haz coincidir la respuesta con dos intents, uno es "intent de sí" y el otro es "intent de no". Luego, establece el parámetro de sesión en
false
(sin ocultación) en los ajustes predeterminados de parámetros de la ruta del "intent de sí" en fulfillment y entrue
(se produce la ocultación) en el ajuste predeterminado de parámetros de la ruta del "intent de no".
BigQuery Export
Habilita la exportación a BigQuery
Indica si la exportación a BigQuery está habilitada.
Conjunto de datos de BigQuery
Es el nombre del conjunto de datos de BigQuery.
Tabla de BigQuery
El nombre de la tabla de BigQuery.
Sugerencias de intención
Puedes habilitar las sugerencias de intención.
Plantilla de carga útil personalizada
En esta sección, puedes crear descripciones y cargas útiles para las plantillas de cargas útiles personalizadas.
Configuración del AA
Conversational Agents (Dialogflow CX) usa algoritmos de aprendizaje automático (AA) para comprender las entradas del usuario final, hacerlas coincidir con intents y extraer datos estructurados. Conversational Agents (Dialogflow CX) aprende de las frases de entrenamiento que le proporcionas y de los modelos de lenguaje integrados en Conversational Agents (Dialogflow CX). A partir de estos datos, compila un modelo para tomar decisiones sobre qué intent debe coincidir con determinada entrada del usuario final. Puedes aplicar parámetros de configuración únicos del AA a cada flujo de un agente, y el modelo que crean los agentes conversacionales (Dialogflow CX) es único para cada flujo.
Las siguientes opciones de configuración del AA de todo el agente están disponibles:
Permite que el AA corrija la ortografía
Si esta función está habilitada y la entrada del usuario final tiene un error ortográfico o gramatical, se establecerá la coincidencia con un intent como si se hubiera escrito correctamente. La respuesta del intent de detección contendrá la entrada del usuario final corregida. Por ejemplo, si un usuario final ingresa "Quiero una manzaana", se procesará como si hubiera escrito "Quiero una manzana". Esto también se aplica a las coincidencias que involucran entidades personalizadas y del sistema.
La corrección ortográfica está disponible en alemán, español, francés, inglés e italiano. Está disponible en todas las regiones de Conversational Agents (Dialogflow CX).
Advertencias y prácticas recomendadas:
- La corrección ortográfica no puede corregir errores de ASR (reconocimiento de voz automático), por lo que no recomendamos habilitarla para agentes que usen entradas de ASR.
- Es posible que la entrada corregida coincida con un intent equivocado. Esto puede solucionarse agregando frases habituales con coincidencias incorrectas a los ejemplos negativos.
- La corrección ortográfica aumenta levemente el tiempo de respuesta del agente.
- Si se define a un agente con jerga específica de un dominio, es posible que las correcciones no sean adecuadas.
Las siguientes opciones de configuración del AA específicas para los flujos están disponibles:
Tipo de CLN
Puede ser uno de los siguientes:
- CLN avanzada (predeterminada): Tecnología avanzada de CLN. Este tipo de CLN funciona mejor que el estándar, en especial para los agentes y los flujos grandes.
- CLN estándar: Tecnología estándar de CLN. Ya no recibirá mejoras de calidad ni funciones nuevas.
Entrenamiento automático
Si está habilitado, el flujo se entrena cada vez que se actualiza con la consola. En flujos grandes, esto puede causar retrasos en la IU de la consola, por lo que debes inhabilitar esta configuración y realizar el entrenamiento de forma manual según sea necesario.
Umbral de clasificación
A fin de filtrar los resultados falsos positivos y obtener una variedad de entradas de lenguaje natural coincidentes para tu agente, puedes ajustar el umbral de clasificación de aprendizaje automático. Este parámetro de configuración controla la confianza mínima de detección de intents requerida para una coincidencia de intents.
Si la puntuación de confianza de una coincidencia de intent es menor que el valor límite, se invocará un evento de no coincidencia.
Puedes establecer un valor de umbral de clasificación independiente para cada flujo en cada idioma habilitado para el agente. Esto se debe a que los diferentes idiomas funcionan mejor en diferentes umbrales de clasificación. Para obtener más información sobre cómo crear un agente multilingüe, consulta la documentación sobre agentes multilingües.
Estado del entrenamiento
Indica si el flujo se entrenó desde la última actualización de los datos del flujo.
Entrena CLN
Usa este botón para entrenar el flujo de forma manual.
Configuración de IA generativa
Están disponibles los siguientes parámetros de configuración de IA generativa:
General
Frases prohibidas
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, fallará la generación.
Filtros de seguridad
Configurar los niveles de sensibilidad de los filtros de seguridad con respecto a diferentes categorías de IA responsable (RAI) El contenido se evaluará según las siguientes cuatro categorías:
Categoría Descripción Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos. Contenido peligroso Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales. Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno. Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona. El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear pocos, Bloquear algunos y Bloquear la mayoría para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar los atributos de seguridad.
Seguridad de las instrucciones
Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.
Agente generativo
Selección del modelo generativo
Selecciona el modelo que usan las funciones basadas en IA generativa. Para obtener más información, consulta Versiones del modelo.
Truncamiento del contexto de la guía
La truncación del contexto de la guía elimina algunos intercambios anteriores de la instrucción de la guía para evitar que el tamaño de la instrucción aumente con cada intercambio secuencial que maneja la guía. Esta función ofrece una forma de mitigar el crecimiento no deseado del tamaño de la instrucción.
Normalmente, sin truncamiento, cada turno posterior se agregará al "historial de conversación" de la instrucción del LLM, independientemente de si es relevante para el turno actual. En última instancia, esto puede hacer que la instrucción aumente de tamaño con cada turno. A medida que el historial de conversación ocupa más espacio en la instrucción, se puede usar menos espacio para los ejemplos de aprendizaje con pocos ejemplos (por lo que es posible que se descarten). Con el tiempo, es posible que la instrucción también supere los límites de tokens actuales. Puedes aumentar el tamaño de los tokens para adaptarte a esto, pero ten en cuenta que los tamaños de instrucciones más grandes también aumentan la latencia de respuesta del LLM.
El truncamiento del contexto del libro de jugadas te permite establecer un porcentaje del presupuesto de tokens que se reservará para el historial de conversaciones, como máximo. Los turnos de conversación se conservan en orden de más reciente a menos reciente. Este parámetro de configuración puede ayudarte a evitar que se excedan los límites de tokens. Independientemente del parámetro de configuración que elijas, se conservarán al menos dos turnos de conversación, en orden del más reciente al menos reciente.
Primero debes establecer un límite de tokens antes de poder modificar este parámetro de configuración.
Importante: Truncar el contexto puede provocar que algunos parámetros se pierdan de forma inadvertida si forman parte de los turnos descartados. Evalúa cuidadosamente las interacciones de tu manual después de habilitar esta opción.
El presupuesto de entrada de tokens también se usa en los siguientes casos:
- Instrucciones y ejemplos del sistema: Se agregan automáticamente a la instrucción. Este comportamiento no se puede modificar.
- Instrucciones y objetivos del manual: Todas las instrucciones y los objetivos que escribas se agregarán a la instrucción en su totalidad.
- Ejemplos de pocas muestras del manual: Se agregan en orden (de forma predeterminada) o con un algoritmo que elijas (como el orden de mejor coincidencia de expresión regular). Los ejemplos se seleccionan para que se ajusten al presupuesto de tokens de entrada después de incluir todos los demás elementos.
- Historial de la conversación compuesto por enunciados del usuario y del agente, contexto de transición de flujos y manuales, llamadas a herramientas y resultados en la misma sesión de todos los turnos anteriores que el manual actual controló de forma secuencial.
Respuesta generativa de respaldo
Configuración de instrucciones de texto
Consulta Resguardo generativo: Define tu propia instrucción.
Almacén de datos
Configuración de IVR y voz
Las siguientes opciones de configuración de IVR y voz están disponibles:
Text-to-Speech
Selección de voz
Puedes seleccionar el idioma y la voz que se usan para la síntesis de voz.
Para habilitar la Voz personalizada en tu agente, selecciona la opción de voz personalizada en el menú desplegable de selección de voz y especifica el nombre de la voz personalizada en el campo correspondiente. El nombre de la voz personalizada debe seguir el siguiente patrón:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada. - Para las llamadas a la API normales, asegúrate de que la cuenta de servicio que se usa para llamar a los agentes conversacionales (Dialogflow CX) tenga el rol de "Predictor de AutoML" en tu proyecto de voz personalizada.
- Si usas la puerta de enlace de telefonía, asegúrate de que la cuenta de servicio del Agente de servicio de Dialogflow
Speech-to-Text
Habilita la adaptación de voz automática
Consulta Adaptación de voz automática.
Configuración avanzada de voz
Para obtener detalles sobre las opciones de voz avanzadas, consulta la guía de Configuración avanzada de voz.
DTMF
Consulta DTMF para integraciones de telefonía para obtener más información.
Multimodal
Consulta Call Companion.
Configuración de uso compartido
Consulta Control de acceso.
Configuración de idiomas
Agrega asistencia adicional de idiomas a tu agente. Para ver la lista completa de los idiomas, consulta la referencia de idiomas.
Detección automática de idioma
Cuando configures la detección automática de idioma, tu agente de chat detectará automáticamente el idioma del usuario final y cambiará a ese idioma. Consulta la documentación sobre la detección automática de idiomas para obtener más detalles.
Configuración de seguridad
Consulta Configuración de seguridad.
Configuración avanzada
En la actualidad, la única configuración avanzada es para el análisis de opiniones.
Configuración de la consola de AI Applications
En esta sección, se describen los parámetros de configuración disponibles para las apps del agente.
General
Los siguientes parámetros de configuración generales están disponibles para las apps del agente:
Nombre visible
Es el nombre legible de tu app del agente.
Ubicación
Es la región de la app del agente.
Bloqueo de aplicaciones
Si está habilitada, no se permiten cambios en la app del agente.
Logging
Los siguientes parámetros de configuración de registro están disponibles para las apps del agente:
Habilita Cloud Logging
Si está habilitado, los registros se enviarán a Cloud Logging.
Habilita el historial de conversaciones
Si está habilitado, estará disponible el historial de conversaciones. Indica si deseas que Google recopile y almacene consultas de usuario final ocultas para mejorar la calidad. Este parámetro de configuración no afecta si se usa el historial de conversaciones para generar respuestas del agente.
Habilita BigQuery Export
Si está habilitado, el historial de conversaciones se exporta a BigQuery. También se debe habilitar el parámetro de configuración Habilitar el historial de conversaciones.
IA generativa
Los siguientes parámetros de configuración de IA generativa están disponibles para las apps del agente:
Selección del modelo generativo
Selecciona el modelo generativo que los agentes deben usar de forma predeterminada.
Límite de tokens de entrada
Selecciona el límite de tokens de entrada para el modelo generativo. Este es el tamaño máximo de tokens para la entrada que se envía al modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de entrada del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de entrada del modelo puede ser mayor.
Límite de tokens de salida
Selecciona el límite de tokens de salida para el modelo generativo. Es el tamaño máximo de tokens para la salida recibida del modelo. Según el modelo, un token puede ser entre un carácter y una palabra. Los límites de tokens más pequeños tienen una latencia más baja, pero el tamaño de la salida del modelo es limitado. Los límites de tokens más grandes tienen una latencia mayor, pero el tamaño de la salida del modelo puede ser mayor.
Temperatura
La temperatura de un LLM te permite controlar qué tan creativas son las respuestas. Un valor bajo proporciona respuestas más predecibles. Un valor alto proporciona respuestas más creativas o aleatorias.
Frases prohibidas
Lista de frases prohibidas para la IA generativa. Si aparece una frase prohibida en la instrucción o en la respuesta generada, el agente devolverá una respuesta alternativa.
Filtros de seguridad
Configurar los niveles de sensibilidad de los filtros de seguridad con respecto a diferentes categorías de IA responsable (RAI) El contenido se evaluará según las siguientes cuatro categorías:
Categoría Descripción Incitación al odio o a la violencia Comentarios negativos o dañinos que se orientan a la identidad o los atributos protegidos. Contenido peligroso Promueve o habilita el acceso a bienes, servicios y actividades perjudiciales. Contenido sexual explícito Incluye referencias a actos sexuales o a otro contenido obsceno. Acoso Comentarios maliciosos, intimidantes, de bullying o abusivos dirigidos a otra persona. El contenido se bloquea en función de la probabilidad de que sea dañino. El nivel de sensibilidad se puede personalizar eligiendo una de las opciones Bloquear poco (bloquea solo las instancias de contenido perjudicial con alta probabilidad), Bloquear algo (instancias con probabilidad media y alta) y Bloquear la mayoría (probabilidad baja, media y alta) para cada categoría. También puedes acceder a la opción restringida No bloquear, que inhabilita las verificaciones de la RAI para la categoría después de enviar una solicitud de reconocimiento de riesgo para tu proyecto y recibir la aprobación.
Para obtener más información, consulta cómo configurar los atributos de seguridad.
Seguridad de las instrucciones
Puedes marcar el parámetro de configuración enable prompt security check para habilitar las verificaciones de seguridad de instrucciones. Cuando está habilitado, el agente intentará evitar ataques de inyección de instrucciones. Estos ataques se pueden usar para revelar partes de la instrucción del agente o para proporcionar respuestas que el agente no debería brindar. Para ello, se envía una instrucción adicional al LLM que verifica si la búsqueda del usuario podría ser maliciosa.
Git
Estos parámetros de configuración proporcionan una integración de Git. Sigue las instrucciones para configurar la integración.