Configurações do agente

Os agentes têm muitas configurações que afetam o comportamento. Cada console oferece configurações diferentes.

Configurações do agente no console dos agentes de conversação

Para acessar as configurações do agente:

Console

  1. Abra o console dos agentes de conversação.
  2. Escolha seu projeto Google Cloud .
  3. Selecione seu agente.
  4. Clique no ícone de configurações no canto superior direito.
  5. Atualize as configurações conforme desejado.
  6. Clique em Save.

API

Veja os métodos get e patch/update para o tipo Agent.

Selecione um protocolo e uma versão para a referência do agente:

Protocolo V3 V3beta1
REST Recurso do agente Recurso do agente
RPC (remote procedure call) Interface do agente Interface do agente
C++ AgentsClient (em inglês) Indisponível
C# AgentsClient (em inglês) Indisponível
Go AgentsClient (em inglês) Indisponível
Java AgentsClient (em inglês) AgentsClient (em inglês)
Node.js AgentsClient (em inglês) AgentsClient (em inglês)
PHP Indisponível Indisponível
Python AgentsClient (em inglês) AgentsClient (em inglês)
Ruby Indisponível Indisponível

As subseções a seguir descrevem as diferentes categorias de configurações do agente.

Configurações gerais

As seguintes configurações gerais estão disponíveis para agentes:

  • Nome de exibição

    Um nome legível para seu agente.

  • Fuso horário

    O fuso horário padrão do seu agente.

  • Início da conversa

    Essa configuração determina se o agente inicia a conversa com um playbook generativo ou um fluxo determinista.

  • Local do agente

    A região do agente selecionada ao criar o agente.

  • Bloqueio do agente

    • Bloquear o agente

      Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.

  • Configurações de registro

    • Ativar o Cloud Logging

      Indica se o Cloud Logging está ativado para o agente.

    • Ativar o histórico de conversas

      Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.

    • Ativar a remoção de informações sensíveis de entrada do usuário final com base no consentimento

      Se essa configuração estiver ativada, você poderá usar um parâmetro de sessão especial para controlar se as entradas e os parâmetros do usuário final serão redigidos do histórico de conversas e do Cloud Logging. Por padrão, o parâmetro de sessão é true. Se essa configuração for desativada, nenhuma redação será feita.

      O consentimento do usuário é coletado usando um parâmetro booleano de sessão: $session.params.conversation-redaction. Se essa configuração estiver ativada e o parâmetro de sessão estiver definido como false, nenhuma remoção será feita (outras estratégias de remoção ainda serão aplicadas). Se essa configuração estiver ativada e o parâmetro de sessão estiver definido como true, a remoção será feita.

      Um exemplo de fluxo de solicitação de consentimento pode ser: primeiro, pergunte ao usuário se ele quer manter a entrada do usuário final e associe a resposta a dois intents, um é "intent de sim" e o outro é "intent de não". Em seguida, defina o parâmetro de sessão como false (sem redação) nas predefinições de parâmetro da rota "yes intent" em fulfillment e como true (com redação) na predefinição de parâmetro da rota "no intent".

  • BigQuery Export

    • Ativar o BigQuery Export

      Indica se a exportação do BigQuery está ativada.

    • Conjunto de dados do BigQuery

      O nome do conjunto de dados do BigQuery.

    • Tabela do BigQuery

      O nome da tabela do BigQuery.

  • Sugestões de intents

    É possível ativar as sugestões de intent.

  • Feedback do usuário

    Você pode ativar essa configuração para dar feedback sobre a qualidade das respostas do agente, incluindo os ícones "Gostei" e "Não gostei".

  • Integração do Git

    Use essa configuração para adicionar uma integração do Git.

Configurações da IA generativa

As seguintes configurações de IA generativa estão disponíveis:

  • Geral

    • Seleção de modelos generativos

      Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte Versões do modelo.

    • Limites de tokens

      • Limite de tokens de entrada

        Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para a entrada enviada ao modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites menores de tokens têm latência mais baixa, mas o tamanho da entrada do modelo é limitado. Limites de token maiores têm latência mais alta, mas o tamanho da entrada do modelo pode ser maior.

      • Limite de token de saída

        Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo do token para a saída recebida do modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites menores de tokens têm latência mais baixa, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência mais alta, mas o tamanho da saída do modelo pode ser maior.

    • Temperatura

      A temperatura de um LLM permite controlar o nível de criatividade das respostas. Um valor baixo oferece respostas mais previsíveis. Um valor alto oferece respostas mais criativas ou aleatórias.

    • Limites de tokens de contexto

      A configuração elimina algumas conversas anteriores do comando do LLM para evitar que o tamanho do comando aumente a cada conversa sequencial processada pelo agente. Esse recurso oferece uma maneira de reduzir o crescimento indesejado do tamanho do comando.

      Normalmente, sem truncamento, cada turno subsequente é anexado ao "histórico de conversas" do comando do LLM, seja ele relevante para o turno atual ou não. Isso pode fazer com que o comando aumente de tamanho a cada interação. À medida que mais espaço do comando é ocupado pelo histórico de conversas, menos espaço pode ser usado para exemplos de poucos disparos, que podem ser descartados. Em algum momento, o comando também pode violar os limites atuais de tokens. É possível aumentar os tamanhos dos tokens para acomodar isso, mas lembre-se de que o aumento dos tamanhos dos comandos também aumenta a latência de resposta do LLM.

      Com o corte de contexto, é possível definir uma porcentagem do orçamento de token a ser reservada para o histórico de conversas, como um máximo. As trocas de mensagens são preservadas na ordem da mais recente para a mais antiga. Essa configuração ajuda a evitar que os limites de token sejam excedidos. Independente da configuração escolhida, um mínimo de duas conversas são preservadas, da mais recente para a mais antiga.

      Primeiro, defina um limite de tokens para poder modificar essa configuração.

      A truncagem do contexto pode causar a perda inadvertida de alguns parâmetros se eles fizerem parte de turnos descartados. Avalie com cuidado as interações do playbook depois de ativar essa opção.

      O orçamento de entrada de token também é usado por:

      • Instruções e exemplos do sistema: adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
      • Instruções e metas do playbook: todas as instruções e metas que você escrever serão adicionadas ao comando por completo.
      • Exemplos few-shot do playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a melhor correspondência de expressão regular). Os exemplos são selecionados para se adequar ao orçamento de tokens de entrada depois que todos os outros itens são incluídos.
      • Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição de fluxo e playbook, chamadas de ferramentas e saídas na mesma sessão de todos os turnos anteriores processados sequencialmente pelo playbook atual.
    • Frases proibidas

      Lista de frases proibidas para IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, a geração vai falhar. A lista de frases proibidas tem consequências em todas as consultas e chamadas de LLM e aumenta a latência.

    • Filtros de segurança

      Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:

      Categoria Descrição
      Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos.
      Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e/ou atividades prejudiciais
      Conteúdo sexualmente explícito Contém referências a atos sexuais e/ou outro conteúdo obsceno
      Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa

      O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções: Bloquear poucos, Bloquear alguns e Bloquear muitos para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria depois que você envia um pedido de confirmação de risco para seu projeto e recebe aprovação.

      Para mais informações, consulte Definir atributos de segurança.

    • Segurança de comandos

      Você pode marcar a configuração ativar verificação de segurança de comandos para habilitar essas verificações. Quando ativado, o agente tenta evitar ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do comando do agente ou para fornecer respostas que o agente não deveria dar. Isso é feito enviando um comando adicional do LLM que verifica se a consulta do usuário pode ser maliciosa.

    • Substituto generativo

  • Datastore

    Consulte Configurações do agente de repositório de dados.

Fluxos deterministas

Essas configurações se aplicam a todos os fluxos do agente, exceto as de ML, que são aplicadas por fluxo. Para editar outras configurações específicas do fluxo, navegue até o fluxo no console e edite as configurações.

  • Treinamento de intents

    O Flows usa algoritmos de machine learning (ML) para entender as entradas do usuário final, fazer a correspondência com intents e extrair dados estruturados. Os fluxos aprendem com frases de treinamento fornecidas por você e com os modelos de linguagem incorporados a eles. Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações de ML exclusivas a cada fluxo de um agente.

    As seguintes configurações de treinamento de intent estão disponíveis:

    • Correção ortográfica

      Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.

      A correção ortográfica está disponível em alemão, espanhol, francês, inglês e italiano. Ele está disponível em todas as regiões dos agentes de conversação (Dialogflow CX).

      Avisos e práticas recomendadas:

      • A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
      • É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
      • A correção ortográfica aumenta um pouco o tempo de resposta do agente.
      • Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.
    • Configurações de ML específicas do fluxo

      • Tipo de PLN

        Pode ser:

      • Treinamento automático

        Se ativado, o fluxo é treinado sempre que é atualizado com o console. Isso pode causar atrasos na UI do console no caso de fluxos grandes. Portanto, desative essa configuração e treine os fluxos manualmente conforme necessário.

      • Limiar de classificação

        Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de idioma natural correspondentes para seu agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança de detecção de intent mínima necessária para uma correspondência de intent.

        Se a pontuação de confiança de uma correspondência de intent for menor que o valor limite, um evento sem correspondência será invocado.

        É possível definir um valor limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso é para acomodar diferentes idiomas que têm melhor desempenho em diferentes limiares de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação sobre agentes multilíngues.

      • Status do treinamento

        Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.

      • Trem

        Use esse botão para treinar manualmente o fluxo.

    • Idioma

      Os idiomas compatíveis com seu agente. Depois que um agente é criado, o idioma padrão não pode ser mudado. No entanto, você pode fazer o seguinte:

      1. Exporte o agente para o formato JSON.
      2. Extraia o arquivo baixado.
      3. Encontre o arquivo agent.json.
      4. Atualize os campos defaultLanguageCode e supportedLanguageCodes com os valores desejados.
      5. Restaure o agente para o mesmo ou um agente diferente da etapa 1.
      6. Atualize as frases de treinamento e os valores de entidade específicos do idioma conforme necessário.

      Também é possível ativar a detecção e troca automática de idioma.

Conectividade

  • Modelo de payload personalizado

    Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.

  • Definição do parâmetro

    Declare claramente quais parâmetros da sessão serão enviados ao webhook e quais parâmetros de sessão podem ser definidos pela resposta do webhook.

  • Configurações de certificado do cliente

    Usado para fazer upload de certificados SSL.

Fala e URA

  • Opções de fala

    • Text-to-Speech

      • Seleção de voz

        É possível selecionar o idioma e a voz usados para a síntese de voz.

        Para ativar a Voz personalizada no agente, selecione a opção no menu suspenso de seleção de voz e especifique o nome da voz personalizada no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        Também é possível usar a clonagem de voz.

        • Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do agente de serviço do Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tem a função "Preditor do AutoML" no projeto de voz personalizada.
        • Para chamadas de API regulares, verifique se a conta de serviço usada para chamar agentes de conversa (Dialogflow CX) tem a função "Preditor do AutoML" no projeto de voz personalizada.
      • Tom de voz

        Controla a altura ou a baixa relativa do tom da fala.

      • Velocidade de fala

        Controla a velocidade da fala da voz.

      • Pronúncia

        Use essas configurações para fornecer ao agente a pronúncia de determinadas frases, usando a codificação fonética X-SAMPA.

    • Speech-to-Text

  • Assistente de chamadas

    Consulte Acompanhante de chamadas.

Configurações da interface

Você pode usar essas configurações para personalizar as interfaces de usuário do Messenger e do Call Companion.

Segurança

Consulte Configurações de segurança e Controle de acesso.

Configurações do agente do console do Dialogflow CX

Para acessar as configurações do agente:

Console

  1. Abra o console.
  2. Escolha seu projeto Google Cloud .
  3. Selecione seu agente.
  4. Clique em Configurações do agente.
  5. Atualize as configurações conforme desejado.
  6. Clique em Save.

API

Veja os métodos get e patch/update para o tipo Agent.

Selecione um protocolo e uma versão para a referência do agente:

Protocolo V3 V3beta1
REST Recurso do agente Recurso do agente
RPC (remote procedure call) Interface do agente Interface do agente
C++ AgentsClient (em inglês) Indisponível
C# AgentsClient (em inglês) Indisponível
Go AgentsClient (em inglês) Indisponível
Java AgentsClient (em inglês) AgentsClient (em inglês)
Node.js AgentsClient (em inglês) AgentsClient (em inglês)
PHP Indisponível Indisponível
Python AgentsClient (em inglês) AgentsClient (em inglês)
Ruby Indisponível Indisponível

Configurações gerais

As seguintes configurações gerais estão disponíveis para agentes:

  • Nome de exibição

    Um nome legível para seu agente.

  • Fuso horário

    O fuso horário padrão do seu agente.

  • Idioma padrão

    O idioma padrão compatível com seu agente. Depois que um agente é criado, o idioma padrão não pode ser mudado. No entanto, você pode fazer o seguinte:

    1. Exporte seu agente para o formato JSON.
    2. Descompacte o arquivo salvo.
    3. Encontre o arquivo agent.json.
    4. Atualize os campos defaultLanguageCode e supportedLanguageCodes com os valores desejados.
    5. Restaure o agente para o mesmo ou um agente diferente da etapa 1.
    6. Atualize as frases de treinamento e os valores de entidade específicos do idioma conforme necessário.
  • Bloqueio do agente

    • Bloquear o agente

      Indica se o agente está bloqueado. Não é possível editar um agente bloqueado.

  • Configurações de registro

    • Ativar o Cloud Logging

      Indica se o Cloud Logging está ativado para o agente.

    • Ativar a geração de registros de interação

      Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade.

    • Ativar a remoção de informações sensíveis de entrada do usuário final com base no consentimento

      Se essa configuração estiver ativada, você poderá usar um parâmetro de sessão especial para controlar se a entrada e os parâmetros do usuário final serão editados do histórico de conversas e do Cloud Logging. Por padrão, o parâmetro de sessão é true. Se essa configuração for desativada, nenhuma redação será feita.

      O consentimento do usuário é coletado usando um parâmetro booleano de sessão: $session.params.conversation-redaction. Se essa configuração estiver ativada e o parâmetro de sessão estiver definido como false, nenhuma remoção será feita (outras estratégias de remoção ainda serão aplicadas). Se essa configuração estiver ativada e o parâmetro de sessão estiver definido como true, a remoção será feita.

      Um exemplo de fluxo de solicitação de consentimento pode ser: primeiro, pergunte ao usuário se ele quer manter a entrada do usuário final e associe a resposta a dois intents, um é "intent de sim" e o outro é "intent de não". Em seguida, defina o parâmetro de sessão como false (sem redação) nas predefinições de parâmetro da rota "intent de sim" no fulfillment e como true (com redação) na predefinição de parâmetro da rota "intent de não".

  • BigQuery Export

    • Ativar o BigQuery Export

      Indica se a exportação do BigQuery está ativada.

    • Conjunto de dados do BigQuery

      O nome do conjunto de dados do BigQuery.

    • Tabela do BigQuery

      O nome da tabela do BigQuery.

  • Sugestões de intents

    É possível ativar as sugestões de intent.

  • Modelo de payload personalizado

    Nesta seção, você pode criar descrições e payloads para modelos de payload personalizados.

Configurações de ML

Os agentes de conversação (Dialogflow CX) usam algoritmos de machine learning (ML) para entender as entradas do usuário final, fazer a correspondência com intents e extrair dados estruturados. Os agentes de conversação (Dialogflow CX) aprendem com frases de treinamento fornecidas por você e com os modelos de linguagem incorporados aos agentes de conversação (Dialogflow CX). Com base nesses dados, ele cria um modelo para tomar decisões sobre qual intent deve ser combinada com uma entrada do usuário final. É possível aplicar configurações de ML exclusivas a cada fluxo de um agente, e o modelo criado pelos agentes de conversação (Dialogflow CX) é exclusivo para cada fluxo.

As seguintes configurações de ML em todo o agente estão disponíveis:

  • Permição para que o ML corrija a ortografia

    Se esse recurso estiver ativado, e a entrada do usuário final tiver um erro ortográfico ou gramatical, um intent será escolhido como se a entrada estivesse correta. A resposta do intent de detecção conterá a entrada de usuário final corrigida. Por exemplo, se um usuário final digitar "Quero uma caçã", a frase será processada como se o usuário final tivesse digitado "Quero uma maçã". Isso também se aplica a correspondências envolvendo entidades do sistema e personalizadas.

    A correção ortográfica está disponível em alemão, espanhol, francês, inglês e italiano. Ele está disponível em todas as regiões dos agentes de conversação (Dialogflow CX).

    Avisos e práticas recomendadas:

    • A correção ortográfica não corrige erros de reconhecimento de fala automático (ASR, na sigla em inglês). Portanto, não recomendamos ativá-la para agentes que usam entradas de ASR.
    • É possível que a entrada corrigida corresponda à intent errada. Isso pode ser corrigido com a inclusão de frases normalmente divergentes em .
    • A correção ortográfica aumenta um pouco o tempo de resposta do agente.
    • Se um agente for definido usando jargão específico do domínio, as correções poderão ser indesejadas.

As seguintes configurações de ML específicas para fluxo estão disponíveis:

  • Tipo de PLN

    Pode ser:

  • Treinamento automático

    Se ativado, o fluxo é treinado sempre que é atualizado com o console. Isso pode causar atrasos na UI do console no caso de fluxos grandes. Portanto, desative essa configuração e treine os fluxos manualmente conforme necessário.

  • Limiar de classificação

    Para filtrar resultados falsos positivos e ainda conseguir variedade nas entradas de idioma natural correspondentes para seu agente, ajuste o limiar de classificação de machine learning. Essa configuração controla a confiança de detecção de intent mínima necessária para uma correspondência de intent.

    Se a pontuação de confiança de uma correspondência de intent for menor que o valor limite, um evento sem correspondência será invocado.

    É possível definir um valor limite de classificação separado para cada fluxo em cada idioma ativado para o agente. Isso é para acomodar diferentes idiomas que têm melhor desempenho em diferentes limiares de classificação. Para mais informações sobre como criar um agente multilíngue, consulte a documentação sobre agentes multilíngues.

  • Status do treinamento

    Indica se o fluxo foi treinado desde a atualização mais recente dos dados do fluxo.

  • Treinar PLN

    Use esse botão para treinar manualmente o fluxo.

Configurações da IA generativa

As seguintes configurações de IA generativa estão disponíveis:

  • Geral

    • Frases proibidas

      Lista de frases proibidas para IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, a geração vai falhar.

    • Filtros de segurança

      Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:

      Categoria Descrição
      Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos.
      Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais
      Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno
      Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa

      O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções: Bloquear poucos, Bloquear alguns e Bloquear muitos para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria depois que você envia um pedido de confirmação de risco para seu projeto e recebe aprovação.

      Para mais informações, consulte Definir atributos de segurança.

    • Segurança de comandos

      Você pode marcar a configuração ativar verificação de segurança de comandos para habilitar essas verificações. Quando ativado, o agente tenta evitar ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do comando do agente ou para fornecer respostas que o agente não deveria dar. Isso é feito enviando um comando adicional do LLM que verifica se a consulta do usuário pode ser maliciosa.

  • Agente generativo

    • Seleção de modelos generativos

      Selecione o modelo usado pelos recursos generativos. Para mais informações, consulte Versões do modelo.

    • Truncagem de contexto do playbook

      O encurtamento do contexto do manual elimina algumas interações anteriores do comando do manual para evitar que o tamanho do comando aumente a cada interação sequencial processada pelo manual. Esse recurso oferece uma maneira de reduzir o crescimento indesejado do tamanho do comando.

      Normalmente, sem truncamento, cada turno subsequente é anexado ao "histórico de conversas" do comando do LLM, seja ele relevante para o turno atual ou não. Isso pode fazer com que o comando aumente de tamanho a cada vez. À medida que mais do comando é ocupado pelo histórico de conversas, menos do comando pode ser usado para exemplos de poucos disparos, que podem ser descartados. Em algum momento, o comando também pode violar os limites atuais de tokens. É possível aumentar os tamanhos dos tokens para acomodar isso, mas lembre-se de que o aumento dos tamanhos dos comandos também aumenta a latência de resposta do LLM.

      Com o truncamento de contexto do playbook, você pode definir uma porcentagem do orçamento de token a ser reservada para o histórico de conversas, como um máximo. As trocas de mensagens são preservadas na ordem da mais recente para a mais antiga. Essa configuração ajuda a evitar que os limites de token sejam excedidos. Independente da configuração escolhida, um mínimo de duas conversas são preservadas, da mais recente para a mais antiga.

      Primeiro, defina um limite de tokens antes de modificar essa configuração.

      Importante:a truncagem de contexto pode causar a perda inadvertida de alguns parâmetros se eles fizerem parte de turnos descartados. Avalie as interações do playbook com cuidado depois de ativar essa opção.

      O orçamento de entrada de token também é usado por:

      • Instruções e exemplos do sistema: adicionados automaticamente ao comando. Esse comportamento não pode ser modificado.
      • Instruções e metas do playbook: todas as instruções e metas que você escrever serão adicionadas ao comando por completo.
      • Exemplos few-shot do playbook: são adicionados em ordem (por padrão) ou por um algoritmo escolhido (como a melhor correspondência de expressão regular). Os exemplos são selecionados para se adequar ao orçamento de tokens de entrada depois que todos os outros itens são incluídos.
      • Histórico de conversas composto por enunciados do usuário e do agente, contexto de transição de fluxo e playbook, chamadas de ferramentas e saídas na mesma sessão de todos os turnos anteriores processados sequencialmente pelo playbook atual.
  • Substituto generativo

  • Datastore

    Consulte Configurações do agente de repositório de dados.

Configurações de fala e de URA

As seguintes configurações de fala e de URA estão disponíveis:

  • Text-to-Speech

    • Seleção de voz

      É possível selecionar o idioma e a voz usados para a síntese de voz.

      Para ativar a Voz personalizada no agente, selecione a opção no menu suspenso de seleção de voz e especifique o nome da voz personalizada no campo correspondente. O nome da voz personalizada precisa seguir o seguinte padrão: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Se você estiver usando o gateway de telefonia, verifique se a conta de serviço do agente de serviço do Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com tem a função "Preditor do AutoML" no projeto de voz personalizada.
      • Para chamadas de API regulares, verifique se a conta de serviço usada para chamar agentes de conversa (Dialogflow CX) tem a função "Preditor do AutoML" no projeto de voz personalizada.
  • Speech-to-Text

DTMF

Consulte DTMF para integrações de telefonia para mais informações.

Multimodal

Consulte Acompanhante de chamadas.

Configurações de compartilhamento

Consulte Controle de acesso.

Configurações de idiomas

Adicione suporte extra ao idioma para o agente. Para ter acesso à lista completa de idiomas, consulte a referência de idioma.

Detecção automática de idioma

Quando você configura a detecção automática de idioma, seu agente de chat detecta automaticamente o idioma do usuário final e muda para ele. Consulte a documentação de detecção automática de idioma para mais detalhes.

Configurações de segurança

Consulte Configurações de segurança.

Configurações avançadas

Atualmente, a única configuração avançada é para a análise de sentimento.

Configurações do console de aplicativos de IA

Esta seção descreve as configurações disponíveis para apps de agente.

Geral

As seguintes configurações gerais estão disponíveis para apps de agente:

  • Nome de exibição

    Um nome legível para o app do agente.

  • Local

    A região do app de agente.

  • Bloqueio de apps

    Se ativada, não é possível fazer mudanças no app do agente.

Logging

As seguintes configurações de geração de registros estão disponíveis para apps de agentes:

  • Ativar o Cloud Logging

    Se ativada, os registros serão enviados para o Cloud Logging.

  • Ativar o histórico de conversas

    Se ativado, o histórico de conversas vai estar disponível. Indica se você quer que o Google colete e armazene consultas do usuário final editadas para melhorar a qualidade. Essa configuração não afeta o uso do histórico de conversas para gerar respostas do agente.

  • Ativar o BigQuery Export

    Se ativado, o histórico de conversas será exportado para o BigQuery. A configuração Ativar histórico de conversas também precisa estar ativada.

IA generativa

As seguintes configurações de IA generativa estão disponíveis para apps de agente:

  • Seleção de modelos generativos

    Selecione o modelo generativo que os agentes vão usar por padrão.

  • Limite de tokens de entrada

    Selecione o limite de tokens de entrada para o modelo generativo. Esse é o tamanho máximo de token para a entrada enviada ao modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites menores de tokens têm latência mais baixa, mas o tamanho da entrada do modelo é limitado. Limites de tokens maiores têm latência mais alta, mas o tamanho da entrada do modelo pode ser maior.

  • Limite de tokens de saída

    Selecione o limite de tokens de saída para o modelo generativo. Esse é o tamanho máximo do token para a saída recebida do modelo. Dependendo do modelo, um token pode ter entre um caractere e uma palavra. Limites menores de tokens têm latência mais baixa, mas o tamanho da saída do modelo é limitado. Limites de token maiores têm latência mais alta, mas o tamanho da saída do modelo pode ser maior.

  • Temperatura

    A temperatura de um LLM permite controlar o nível de criatividade das respostas. Um valor baixo oferece respostas mais previsíveis. Um valor alto oferece respostas mais criativas ou aleatórias.

  • Frases proibidas

    Lista de frases proibidas para IA generativa. Se uma frase proibida aparecer no comando ou na resposta gerada, o agente vai retornar uma resposta alternativa.

  • Filtros de segurança

    Configure os níveis de sensibilidade dos filtros de segurança em relação a diferentes categorias de IA responsável (RAI). O conteúdo será avaliado com base nas quatro categorias a seguir:

    Categoria Descrição
    Discurso de ódio Comentários negativos ou nocivos voltados à identidade e/ou atributos protegidos.
    Conteúdo perigoso Promove ou permite o acesso a produtos, serviços e atividades prejudiciais
    Conteúdo sexualmente explícito Contém referências a atos sexuais ou outro conteúdo obsceno
    Assédio Comentários maliciosos, intimidantes, abusivos ou violentos direcionados a outra pessoa

    O conteúdo é bloqueado com base na probabilidade de ser nocivo. O nível de sensibilidade pode ser personalizado escolhendo uma das opções: Bloquear poucos itens (bloqueia apenas instâncias de alta probabilidade de conteúdo prejudicial), Bloquear alguns itens (instâncias de probabilidade média e alta) e Bloquear a maioria dos itens (probabilidade baixa, média e alta) para cada categoria. Você também pode acessar a opção restrita Não bloquear, que desativa as verificações de RAI para a categoria depois que você envia uma solicitação de confirmação de risco para seu projeto e recebe aprovação.

    Para mais informações, consulte Definir atributos de segurança.

  • Segurança de comandos

    Você pode marcar a configuração ativar verificação de segurança de comandos para habilitar essas verificações. Quando ativado, o agente tenta evitar ataques de injeção de comando. Esses ataques podem ser usados para revelar partes do comando do agente ou para fornecer respostas que o agente não deveria dar. Isso é feito enviando um comando adicional do LLM que verifica se a consulta do usuário pode ser maliciosa.

Git

Essas configurações oferecem uma integração do Git. Siga as instruções para configurar a integração.