Os agentes têm muitas configurações que afetam o comportamento. Cada console tem configurações diferentes.
Configurações do agente do console para os agentes de conversação
Para acessar as configurações do agente:
Console
- Abra o console de agentes de conversa.
- Escolha seu Google Cloud projeto.
- Selecione seu agente.
- Clique no ícone dessas configurações no canto superior direito.
- Atualize as configurações conforme desejado.
- Clique em Save.
API
Veja os métodos get
e patch/update
para o tipo Agent
.
Selecione um protocolo e uma versão para a referência do agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso do agente | Recurso do agente |
RPC (remote procedure call) | Interface do agente | Interface do agente |
C++ | AgentsClient (em inglês) | Indisponível |
C# | AgentsClient (em inglês) | Indisponível |
Go | AgentsClient (em inglês) | Indisponível |
Java | AgentsClient (em inglês) | AgentsClient (em inglês) |
Node.js | AgentsClient (em inglês) | AgentsClient (em inglês) |
PHP | Indisponível | Indisponível |
Python | AgentsClient (em inglês) | AgentsClient (em inglês) |
Ruby | Indisponível | Indisponível |
As subseções a seguir descrevem as diferentes categorias de configurações do agente.
Configurações gerais
As seguintes configurações gerais estão disponíveis para agentes:
-
Um nome legível para seu agente.
-
O fuso horário padrão do seu agente.
-
Essa configuração determina se o agente inicia a conversa com um playbook generativo ou fluxo determinístico.
-
A região do agente que você selecionou ao criá-lo.
-
Bloquear o agente
Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.
-
Ativar o Cloud Logging
Indica se o Cloud Logging está ativado para o agente.
Ativar o histórico de conversas
Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.
Ativar a edição de entradas do usuário final com base no consentimento
Quando esta configuração está ativada, é possível usar um parâmetro de sessão especial para controlar se as entradas e os parâmetros do usuário final são editados no histórico de conversas e no Cloud Logging. Por padrão, o parâmetro da sessão é
true
. Se essa configuração for desativada, não haverá edição.O consentimento do usuário é coletado com um parâmetro de sessão booleano:
$session.params.conversation-redaction
. Se essa configuração for ativada e o parâmetro de sessão for definido comofalse
, nenhum descarte vai ocorrer (outras estratégias de edição ainda se aplicam). Se essa configuração for ativada e o parâmetro da sessão for definido comotrue
, a edição vai ocorrer.Um exemplo de fluxo de solicitação de consentimento seria: primeiro perguntar ao usuário se ele quer manter a entrada do usuário final e fazer a correspondência da resposta com duas intents: uma é "intenção sim" e a outra é "sem intenção". Em seguida, defina o parâmetro de sessão como
false
(sem edição) nas predefinições de parâmetro da rota "yes intent" no fulfillment e comotrue
(ocorre a edição) na predefinição de parâmetro da rota "sem intent".
-
Ativar o BigQuery Export
Indica se o BigQuery Export está ativado.
Conjunto de dados do BigQuery
O nome do conjunto de dados do BigQuery.
Tabela do BigQuery
O nome da tabela do BigQuery.
-
É possível ativar as sugestões de intents.
-
Ative essa configuração para fornecer feedback sobre a qualidade das respostas do agente, o que inclui "Gostei" e "Não gostei".
-
Use essa configuração para adicionar uma integração do Git.
Configurações da IA generativa
As seguintes configurações de IA generativa estão disponíveis:
Geral
-
Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte versões de modelo.
Limites de token
-
Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para entrada enviada ao modelo. Dependendo do modelo, um token pode estar entre um caractere e uma palavra. Limites de token menores têm latência menor, mas o tamanho de entrada do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da entrada do modelo pode ser maior.
-
Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo de token para a saída recebida do modelo. Dependendo do modelo, um token pode estar entre um caractere e uma palavra. Limites de token menores têm latência menor, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da saída do modelo pode ser maior.
-
-
A temperatura de um LLM permite controlar o nível de criatividade das respostas. Um valor baixo fornece respostas mais previsíveis. Um valor alto fornece respostas mais criativas ou aleatórias.
-
A configuração seleciona algumas rodadas passadas do comando do LLM para evitar que o tamanho do comando aumente a cada turno sequencial processado pelo agente. Esse recurso oferece uma maneira de reduzir o crescimento indesejado do tamanho dos comandos.
Normalmente, sem truncamento, cada curva subsequente é anexada ao "histórico de conversas" da solicitação do LLM, independentemente de ser relevante para a curva atual. Isso pode fazer com que o comando aumente de tamanho a cada rodada. À medida que mais comandos são ocupados pelo histórico de conversas, menos deles podem ser usados para exemplos few-shot (e, portanto, podem ser descartados). Eventualmente, a solicitação também pode violar os limites atuais de tokens. É possível aumentar o tamanho dos tokens para acomodar isso, mas lembre-se de que o tamanho dos comandos aumenta também a latência de resposta do LLM.
Com o truncamento de contexto, é possível definir uma porcentagem do orçamento de token a ser reservada para o histórico da conversa, como o máximo. Os turnos de conversas são preservados na ordem da mais recente para a menos recente. Essa configuração pode ajudar a evitar que os limites de tokens sejam excedidos. Seja qual for a configuração escolhida, um mínimo de dois turnos de conversa são preservados, da mais recente para a menos recente.
Primeiro, defina um limite de tokens antes de modificar essa configuração.
O contexto de truncamento pode fazer com que alguns parâmetros sejam perdidos inadvertidamente se fizerem parte de curvas fechadas. Avalie cuidadosamente as interações do playbook após ativar essa opção.
O orçamento de entrada do token também é usado pelo seguinte:
- Instruções e exemplos do sistema: adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
- Instruções e metas do manual: as instruções e metas que você escrever serão totalmente adicionadas ao comando.
- Exemplos few-shot do playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a melhor ordem de correspondência de expressões regulares). Os exemplos são selecionados para caber no orçamento do token de entrada depois que todos os outros itens são incluídos.
- Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição do fluxo e do manual, chamadas de ferramentas e saídas na mesma sessão de todas as rodadas anteriores processadas sequencialmente pelo playbook atual.
-
Lista de frases banidas pela IA generativa. Se uma frase banida aparecer no comando ou na resposta gerada, a geração vai falhar. Esteja ciente de que a lista de frases banidas tem consequências em todas as consultas e chamadas de LLM e vai aumentar a latência.
-
Configurar níveis de sensibilidade de filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e/ou atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais e/ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos e/ou abusivos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. Para personalizar o nível de sensibilidade, selecione Bloquear poucos, Bloquear alguns e Bloquear a maioria em cada categoria. Também é possível ter acesso à opção restrita Bloquear nenhum, que desativa as verificações de RAI para a categoria, depois de enviar uma solicitação de confirmação de risco para o projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
-
Marque a configuração Ativar verificação de segurança da solicitação para habilitar verificações de segurança de solicitações. Quando ativada, o agente tenta impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do prompt do agente ou para fornecer respostas que o agente não deve fornecer. Para isso, é preciso enviar outro prompt de LLM que verifica se a consulta do usuário é possivelmente maliciosa.
Substituto generativo
-
Datastore
Fluxos determinísticos
Essas configurações se aplicam a todos os fluxos neste agente, exceto às configurações de ML que são aplicadas por fluxo. Para editar outras configurações específicas do fluxo, navegue até o fluxo no console e edite as configurações.
Treinamento de intent
Os fluxos usam algoritmos de machine learning (ML) para entender as entradas do usuário final, combiná-las com as intents e extrair dados estruturados. Os fluxos aprendem com as frases de treinamento fornecidas por você e os modelos de linguagem incorporados aos fluxos. Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações de ML exclusivas a cada fluxo de um agente.
As seguintes configurações de treinamento de intent estão disponíveis:
-
Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.
A correção ortográfica está disponível em inglês, francês, alemão, espanhol e italiano. Ele está disponível em todas as regiões de agentes de conversação (Dialogflow CX).
Avisos e práticas recomendadas:
- A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
- É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
- A correção ortográfica aumenta um pouco o tempo de resposta do agente.
- Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.
Configurações de ML específicas de fluxos
-
Pode ser:
- PLN avançado (padrão): tecnologia PLN avançada. Esse tipo de PLN funciona melhor que o padrão, especialmente para fluxos e agentes grandes.
- PLN padrão: é tecnologia PLN padrão. Não vai mais receber melhorias de qualidade nem novos recursos.
-
Se ativado, o fluxo é treinado sempre que é atualizado com o console. Para fluxos grandes, isso pode causar atrasos na interface do console. Portanto, desative essa configuração e treine manualmente conforme necessário para fluxos grandes.
-
Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de linguagem natural correspondentes para o agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança mínima na detecção de intent necessária para uma correspondência de intent.
Se a pontuação de confiança de uma correspondência de intent for menor que o valor limite, um evento sem correspondência será invocado.
É possível definir um valor de limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso serve para acomodar diferentes idiomas com desempenho melhor em diferentes limiares de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação de agentes multilíngues.
-
Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.
-
Use esse botão para treinar manualmente o fluxo.
-
-
Os idiomas compatíveis com seu agente. Depois que um agente é criado, não é possível alterar o idioma padrão. No entanto, você pode fazer o seguinte:
- Exporte o agente para o formato JSON.
- Extraia o arquivo baixado.
- Localize o arquivo
agent.json
. - Atualize os campos
defaultLanguageCode
esupportedLanguageCodes
com os valores desejados. - Restaure o agente para o mesmo agente ou para um diferente da etapa 1.
- Atualize frases de treinamento e valores de entidade específicos da linguagem conforme necessário.
Também é possível ativar a detecção automática e a troca de idiomas.
-
Conectividade
Modelo de payload personalizado
Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.
-
Defina claramente quais parâmetros de sessão serão enviados ao webhook e quais podem ser definidos pela resposta do webhook.
Configurações de certificado do cliente
Usado para fazer upload de certificados SSL.
Fala e URA
Opções de fala
-
-
Você pode selecionar a voz e o idioma usados para a síntese de fala.
Para ativar a opção Voz personalizada no agente, selecione essa opção na caixa de depósito e especifique o nome dela no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.Você também pode usar a clonagem de voz.
- Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do Agente de serviço do Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
foi concedida com o "AutoML Predictor" no seu projeto de voz personalizado. - Para chamadas de API normais, verifique se a conta de serviço usada para chamar os agentes de conversação (Dialogflow CX) recebeu o papel "AutoML Predictor" no projeto de voz personalizado.
- Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do Agente de serviço do Dialogflow
-
-
Ativar a adaptação automática de fala
Consulte Adaptação automática de fala.
Ativar as configurações avançadas de fala
Para detalhes sobre as opções avançadas de fala, consulte o guia Configurações avançadas de fala.
-
Para mais informações, consulte DTMF para integrações de telefonia.
Ativar a adaptação manual de fala
Consulte adaptação manual de fala.
-
Complementar de chamada
Consulte Complementar chamada.
Configurações da interface
Você pode usar essas configurações para personalizar as interfaces do usuário do Messenger e da Call Companion.
Segurança
Consulte Configurações de segurança.
Configurações do agente do console do Dialogflow CX
Para acessar as configurações do agente:
Console
- Abra o console do Dialogflow CX.
- Escolha seu Google Cloud projeto.
- Selecione seu agente.
- Clique em Configurações do agente.
- Atualize as configurações conforme desejado.
- Clique em Save.
API
Veja os métodos get
e patch/update
para o tipo Agent
.
Selecione um protocolo e uma versão para a referência do agente:
Protocolo | V3 | V3beta1 |
---|---|---|
REST | Recurso do agente | Recurso do agente |
RPC (remote procedure call) | Interface do agente | Interface do agente |
C++ | AgentsClient (em inglês) | Indisponível |
C# | AgentsClient (em inglês) | Indisponível |
Go | AgentsClient (em inglês) | Indisponível |
Java | AgentsClient (em inglês) | AgentsClient (em inglês) |
Node.js | AgentsClient (em inglês) | AgentsClient (em inglês) |
PHP | Indisponível | Indisponível |
Python | AgentsClient (em inglês) | AgentsClient (em inglês) |
Ruby | Indisponível | Indisponível |
As subseções a seguir descrevem as diferentes categorias de configurações do agente.
Configurações gerais
As seguintes configurações gerais estão disponíveis para agentes:
Nome de exibição
Um nome legível para seu agente.
Fuso horário
O fuso horário padrão do seu agente.
Idioma padrão
O idioma padrão compatível com seu agente. Depois que um agente é criado, não é possível alterar o idioma padrão. No entanto, você pode fazer o seguinte:
- Exporte seu agente para o formato JSON.
- Descompacte o arquivo salvo.
- Localize o arquivo
agent.json
. - Atualize os campos
defaultLanguageCode
esupportedLanguageCodes
com os valores desejados. - Restaure o agente para o mesmo agente ou para um diferente da etapa 1.
- Atualize frases de treinamento e valores de entidade específicos da linguagem conforme necessário.
Bloqueio do agente
Bloquear o agente
Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.
Configurações de registro
Ativar o Cloud Logging
Indica se o Cloud Logging está ativado para o agente.
Ativar a geração de registros de interação
Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.
Ativar a edição de entradas do usuário final com base no consentimento
Quando esta configuração está ativada, é possível usar um parâmetro de sessão especial para controlar se as entradas e os parâmetros do usuário final são editados no histórico de conversas e no Cloud Logging. Por padrão, o parâmetro da sessão é
true
. Se essa configuração for desativada, não haverá edição.O consentimento do usuário é coletado com um parâmetro de sessão booleano:
$session.params.conversation-redaction
. Se essa configuração for ativada e o parâmetro de sessão for definido comofalse
, nenhum descarte vai ocorrer (outras estratégias de edição ainda se aplicam). Se essa configuração for ativada e o parâmetro da sessão for definido comotrue
, a edição vai ocorrer.Um exemplo de fluxo de solicitação de consentimento seria: primeiro perguntar ao usuário se ele quer manter a entrada do usuário final e fazer a correspondência da resposta com duas intents: uma é "intenção sim" e a outra é "sem intenção". Em seguida, defina o parâmetro de sessão como
false
(sem edição) nas predefinições de parâmetro da rota "yes intent" no fulfillment e comotrue
(ocorre a edição) na predefinição de parâmetro da rota "sem intent".
BigQuery Export
Ativar o BigQuery Export
Indica se o BigQuery Export está ativado.
Conjunto de dados do BigQuery
O nome do conjunto de dados do BigQuery.
Tabela do BigQuery
O nome da tabela do BigQuery.
Sugestões de intent
É possível ativar as sugestões de intents.
Modelo de payload personalizado
Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.
Configurações de ML
Os agentes de conversação (Dialogflow CX) usam algoritmos de machine learning (ML) para entender as entradas do usuário final, combiná-las com as intents e extrair dados estruturados. Os agentes de conversação (Dialogflow CX) aprendem com as frases de treinamento fornecidas por você e os modelos de linguagem integrados aos agentes de conversa (Dialogflow CX). Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações exclusivas de ML a cada fluxo de um agente, e o modelo criado pelos agentes de conversação (Dialogflow CX) é exclusivo para cada fluxo.
As seguintes configurações de ML em todo o agente estão disponíveis:
Permição para que o ML corrija a ortografia
Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.
A correção ortográfica está disponível em inglês, francês, alemão, espanhol e italiano. Ele está disponível em todas as regiões de agentes de conversação (Dialogflow CX).
Avisos e práticas recomendadas:
- A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
- É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
- A correção ortográfica aumenta um pouco o tempo de resposta do agente.
- Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.
As seguintes configurações de ML específicas para fluxo estão disponíveis:
Tipo de PLN
Pode ser:
- PLN avançado (padrão): tecnologia PLN avançada. Esse tipo de PLN funciona melhor que o padrão, especialmente para fluxos e agentes grandes.
- PLN padrão: é tecnologia PLN padrão. Não vai mais receber melhorias de qualidade nem novos recursos.
Treinamento automático
Se ativado, o fluxo é treinado sempre que é atualizado com o console. Para fluxos grandes, isso pode causar atrasos na interface do console. Portanto, desative essa configuração e treine manualmente conforme necessário para fluxos grandes.
Limiar de classificação
Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de linguagem natural correspondentes para o agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança mínima na detecção de intent necessária para uma correspondência de intent.
Se a pontuação de confiança de uma correspondência de intent for menor que o valor limite, um evento sem correspondência será invocado.
É possível definir um valor de limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso serve para acomodar diferentes idiomas com desempenho melhor em diferentes limiares de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação de agentes multilíngues.
Status do treinamento
Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.
Treinar PLN
Use esse botão para treinar manualmente o fluxo.
Configurações da IA generativa
As seguintes configurações de IA generativa estão disponíveis:
Geral
Frases banidas
Lista de frases banidas pela IA generativa. Se uma frase banida aparecer no comando ou na resposta gerada, a geração vai falhar.
Filtros de segurança
Configurar níveis de sensibilidade de filtros de segurança para diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. Para personalizar o nível de sensibilidade, selecione Bloquear poucos, Bloquear alguns e Bloquear a maioria em cada categoria. Também é possível ter acesso à opção restrita Bloquear nenhum, que desativa as verificações de RAI para a categoria, depois de enviar uma solicitação de confirmação de risco para o projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
Segurança do prompt
Marque a configuração Ativar verificação de segurança da solicitação para habilitar verificações de segurança de solicitações. Quando ativada, o agente tenta impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do prompt do agente ou para fornecer respostas que o agente não deve fornecer. Para isso, é preciso enviar outro prompt de LLM que verifica se a consulta do usuário é possivelmente maliciosa.
Agente generativo
Seleção generativa de modelo
Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte versões de modelo.
Truncamento de contexto do manual
O Truncamento de contexto do playbook seleciona algumas rodadas anteriores do comando do playbook para evitar que o tamanho do comando aumente a cada giro sequencial processado pelo playbook. Esse recurso oferece uma maneira de reduzir o crescimento indesejado do tamanho dos comandos.
Normalmente, sem truncamento, cada curva subsequente é anexada ao "histórico de conversas" da solicitação do LLM, independentemente de ser relevante para a curva atual. Isso pode fazer com que o comando aumente de tamanho a cada rodada. À medida que mais comandos são ocupados pelo histórico de conversas, menos deles podem ser usados para exemplos few-shot (e, portanto, podem ser descartados). Eventualmente, a solicitação também pode violar os limites atuais de tokens. É possível aumentar o tamanho dos tokens para acomodar isso, mas lembre-se de que o tamanho dos comandos aumenta também a latência de resposta do LLM.
O truncamento de contexto do playbook permite definir uma porcentagem do orçamento de token a ser reservada para o histórico da conversa, como o máximo. Os turnos de conversas são preservados na ordem da mais recente para a menos recente. Essa configuração pode ajudar a evitar que os limites de tokens sejam excedidos. Seja qual for a configuração escolhida, um mínimo de dois turnos de conversa são preservados, da mais recente para a menos recente.
Defina primeiro um limite de tokens antes de modificar essa configuração.
Importante:o contexto de truncamento pode fazer com que alguns parâmetros sejam perdidos inadvertidamente se fizerem parte de curvas fechadas. Avalie cuidadosamente as interações do playbook após ativar essa opção.
O orçamento de entrada do token também é usado pelo seguinte:
- Instruções e exemplos do sistema: adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
- Instruções e metas do manual: as instruções e metas que você escrever serão totalmente adicionadas ao comando.
- Exemplos few-shot do playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a melhor ordem de correspondência de expressões regulares). Os exemplos são selecionados para caber no orçamento do token de entrada depois que todos os outros itens são incluídos.
- Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição do fluxo e do manual, chamadas de ferramentas e saídas na mesma sessão de todas as rodadas anteriores processadas sequencialmente pelo playbook atual.
Substituto generativo
Configuração do comando de texto
Datastore
Configurações de fala e de URA
As seguintes configurações de fala e URA estão disponíveis:
Text-to-Speech
Seleção de voz
Você pode selecionar a voz e o idioma usados para a síntese de fala.
Para ativar a opção Voz personalizada no agente, selecione essa opção na caixa de depósito e especifique o nome dela no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do Agente de serviço do Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
foi concedida com o "AutoML Predictor" no seu projeto de voz personalizado. - Para chamadas de API normais, verifique se a conta de serviço usada para chamar os agentes de conversação (Dialogflow CX) recebeu o papel "AutoML Predictor" no projeto de voz personalizado.
- Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do Agente de serviço do Dialogflow
Speech-to-Text
Ativar a adaptação automática de fala
Consulte Adaptação automática de fala.
Configurações avançadas de fala
Para detalhes sobre as opções avançadas de fala, consulte o guia Configurações avançadas de fala.
DTMF
Para mais informações, consulte DTMF para integrações de telefonia.
Multimodal
Consulte Complementar chamada.
Configurações de compartilhamento
Consulte Controle de acesso.
Configurações de idiomas
Adicione suporte extra ao idioma para o agente. Para ter acesso à lista completa de idiomas, consulte a referência de idioma.
Detecção automática de idioma
Quando você configura a detecção automática de idioma, o agente de chat detecta automaticamente o idioma do usuário final e muda para ele. Consulte a documentação sobre detecção automática de idiomas para mais detalhes.
Configurações de segurança
Consulte Configurações de segurança.
Configurações avançadas
Atualmente, a única configuração avançada é para a análise de sentimento.
Configurações do console de aplicativos de IA
Esta seção descreve as configurações disponíveis para apps de agente.
Geral
As seguintes configurações gerais estão disponíveis para apps de agentes:
Nome de exibição
Um nome legível por humanos para seu app de agente.
Local
A região do app do agente.
Bloqueio de apps
Se ativado, as alterações no app do agente não serão permitidas.
Logging
As seguintes configurações de geração de registros estão disponíveis para apps de agente:
Ativar o Cloud Logging
Se ativados, os registros serão enviados para o Cloud Logging.
Ativar o histórico de conversas
Se ativado, o histórico de conversas ficará disponível. Indica se você quer que o Google colete e armazene consultas de usuários finais encobertas para melhorar a qualidade. Essa configuração não afeta o uso do histórico de conversas para gerar respostas do agente.
Ativar o BigQuery Export
Se ativado, o histórico de conversas é exportado para o BigQuery. A configuração Ativar histórico de conversas também precisa estar ativada.
IA generativa
As seguintes configurações de IA generativa estão disponíveis para apps de agentes:
Seleção generativa de modelo
Selecione o modelo generativo que os agentes precisam usar por padrão.
Limite de tokens de entrada
Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para entrada enviada ao modelo. Dependendo do modelo, um token pode estar entre um caractere e uma palavra. Limites de token menores têm latência menor, mas o tamanho de entrada do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da entrada do modelo pode ser maior.
Limite de tokens de saída
Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo de token para a saída recebida do modelo. Dependendo do modelo, um token pode estar entre um caractere e uma palavra. Limites de token menores têm latência menor, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência maior, mas o tamanho da saída do modelo pode ser maior.
Temperatura
A temperatura de um LLM permite controlar o nível de criatividade das respostas. Um valor baixo fornece respostas mais previsíveis. Um valor alto fornece respostas mais criativas ou aleatórias.
Frases banidas
Lista de frases banidas pela IA generativa. Se uma frase banida aparecer no comando ou na resposta gerada, o agente retornará uma resposta substituta.
Filtros de segurança
Configurar níveis de sensibilidade de filtros de segurança para diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:
Categoria Descrição Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos. Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo entre Bloquear poucos (bloqueando apenas instâncias de conteúdo nocivo com alta probabilidade), Bloquear alguns (instâncias de probabilidade média e alta) e Bloquear a maioria (probabilidade baixa, média e alta) para cada categoria. Também é possível ter acesso à opção restrita Bloquear nenhum, que desativa as verificações de RAI para a categoria, depois de enviar uma solicitação de confirmação de risco para o projeto e receber a aprovação.
Para mais informações, consulte Configurar atributos de segurança.
Segurança do prompt
Marque a configuração Ativar verificação de segurança da solicitação para habilitar verificações de segurança de solicitações. Quando ativada, o agente tenta impedir ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do prompt do agente ou para fornecer respostas que o agente não deve fornecer. Para isso, é preciso enviar outro prompt de LLM que verifica se a consulta do usuário é possivelmente maliciosa.
Git
Essas configurações oferecem uma integração do Git. Siga as instruções para configurar a integração.