Paramètres de l'agent

Les agents disposent de nombreux paramètres qui affectent leur comportement. Chaque console propose des paramètres différents.

Paramètres de l'agent de la console des agents conversationnels

Pour accéder aux paramètres de l'agent :

Console

  1. Ouvrez la console Agents conversationnels.
  2. Sélectionnez votre projet Google Cloud .
  3. Sélectionnez votre agent.
  4. Cliquez sur l'icône Paramètres en haut à droite.
  5. Mettez à jour les paramètres comme vous le souhaitez.
  6. Cliquez sur Enregistrer.

API

Consultez les méthodes get et patch/update pour le type Agent.

Sélectionnez un protocole et une version pour la référence de l'agent :

Protocole V3 V3beta1
REST Ressource de l'agent Ressource de l'agent
RPC Interface de l'agent Interface de l'agent
C++ AgentsClient Non disponible
C# AgentsClient Non disponible
Go AgentsClient Non disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponible Non disponible
Python AgentsClient AgentsClient
Ruby Non disponible Non disponible

Les sous-sections suivantes décrivent les différentes catégories de paramètres d'agent.

Paramètres généraux

Les paramètres généraux suivants sont disponibles pour les agents :

  • Nom à afficher

    Nom lisible de votre agent.

  • Fuseau horaire

    Le fuseau horaire par défaut de votre agent.

  • Démarrer une conversation

    Ce paramètre détermine si votre agent commence la conversation avec un playbook génératif ou un flux déterministe.

  • Emplacement de l'agent

    Région de l'agent que vous avez sélectionnée lors de la création de l'agent.

  • Verrouillage de l'agent

    • Verrouiller l'agent

      Indique si l'agent est verrouillé. Vous ne pouvez pas modifier un agent verrouillé.

  • Paramètres de journalisation

    • Activer Cloud Logging

      Indique si Cloud Logging est activé pour l'agent.

    • Activer l'historique des conversations

      Indique si vous souhaitez que Google collecte et stocke les requêtes des utilisateurs finaux redacted pour améliorer la qualité.

    • Activer la suppression des entrées de l'utilisateur final en fonction du consentement

      Si ce paramètre est activé, il vous permet d'utiliser un paramètre de session spécial pour contrôler si les entrées et les paramètres des utilisateurs finaux sont masqués dans l'historique des conversations et dans Cloud Logging. Par défaut, le paramètre de session est défini sur true. Si ce paramètre est désactivé, aucune rédaction n'est effectuée.

      Le consentement de l'utilisateur est recueilli à l'aide d'un paramètre de session booléen : $session.params.conversation-redaction. Si ce paramètre est activé et que le paramètre de session est défini sur false, aucune suppression n'est effectuée (d'autres stratégies de suppression s'appliquent toujours). Si ce paramètre est activé et que le paramètre de session est défini sur true, la rédaction a lieu.

      Par exemple, un flux de demande de consentement peut d'abord demander à l'utilisateur s'il souhaite conserver les entrées de l'utilisateur final, puis faire correspondre la réponse à deux intents : un intent "oui" et un intent "non". Définissez ensuite le paramètre de session sur false (aucune censure) dans les préréglages de paramètres de la route "intent yes" (intention oui) dans fulfillment, et sur true (censure) dans les préréglages de paramètres de la route "intent no" (intention non).

  • Exportation vers BigQuery

    • Activer BigQuery Export

      Indique si l'exportation BigQuery est activée.

    • Ensemble de données BigQuery

      Nom de l'ensemble de données BigQuery.

    • Table BigQuery

      Le nom de la table BigQuery

  • Suggestions d'intent

    Vous pouvez activer les suggestions d'intent.

  • Commentaires des utilisateurs

    Vous pouvez activer ce paramètre pour donner votre avis sur la qualité des réponses de l'agent, y compris en cliquant sur "J'aime" ou "Je n'aime pas".

  • Intégration Git

    Utilisez ce paramètre pour ajouter une intégration Git.

Paramètres de l'IA générative

Les paramètres d'IA générative suivants sont disponibles :

  • Général

    • Sélection du modèle génératif

      Sélectionnez le modèle utilisé par les fonctionnalités génératives. Pour en savoir plus, consultez Versions de modèle.

    • Limites de jetons

      • Limite de jetons d'entrée

        Sélectionnez la limite de jetons d'entrée pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les entrées envoyées au modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille d'entrée du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille d'entrée du modèle peut être plus grande.

      • Limite de jetons de sortie

        Sélectionnez la limite de jetons de sortie pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les résultats reçus du modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille de la sortie du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille de la sortie du modèle peut être plus grande.

    • Température

      La température d'un LLM vous permet de contrôler le degré de créativité des réponses. Une valeur faible permet d'obtenir des réponses plus prévisibles. Une valeur élevée fournit des réponses plus créatives ou aléatoires.

    • Limites de jetons de contexte

      Ce paramètre supprime certains tours passés de l'invite LLM afin d'empêcher la taille de l'invite de croître à chaque tour séquentiel géré par l'agent. Cette fonctionnalité permet d'atténuer la croissance indésirable de la taille des requêtes.

      Normalement, sans troncature, chaque tour suivant est ajouté à l'historique des conversations de l'invite LLM, qu'il soit pertinent ou non pour le tour actuel. Cela peut entraîner une augmentation de la taille de la requête à chaque tour. Plus l'historique des conversations occupe de place dans la requête, moins il reste de place pour les exemples few-shot (qui peuvent donc être supprimés). Il est également possible que la requête finisse par dépasser les limites de jetons actuelles. Vous pouvez augmenter la taille des jetons pour résoudre ce problème, mais n'oubliez pas que l'augmentation de la taille des requêtes ajoute également de la latence à la réponse du LLM.

      La troncature du contexte vous permet de définir un pourcentage du budget de jetons à réserver pour l'historique des conversations, en tant que maximum. Les tours de conversation sont conservés par ordre chronologique décroissant. Ce paramètre peut vous aider à éviter de dépasser les limites de jetons. Quel que soit le paramètre choisi, au moins deux tours de conversation sont conservés, du plus récent au plus ancien.

      Vous devez d'abord définir une limite de jetons avant de pouvoir modifier ce paramètre.

      La troncature du contexte peut entraîner la perte involontaire de certains paramètres s'ils font partie des tours supprimés. Évaluez attentivement vos interactions avec les playbooks après avoir activé cette option.

      Le budget d'entrée de jetons est également utilisé par les éléments suivants :

      • Instructions et exemples du système : ajoutés automatiquement à la requête. Ce comportement ne peut pas être modifié.
      • Instructions et objectifs du playbook : toutes les instructions et tous les objectifs que vous rédigez seront ajoutés à la requête dans leur intégralité.
      • Exemples few-shot de playbook : ils sont ajoutés dans l'ordre (par défaut) ou par un algorithme de votre choix (par exemple, l'ordre de correspondance optimale des expressions régulières). Les exemples sont sélectionnés pour respecter le budget de jetons d'entrée une fois que tous les autres éléments sont inclus.
      • Historique des conversations composé des énoncés de l'utilisateur et de l'agent, du contexte de transition de flux et de playbook, des appels d'outils et des sorties de la même session à partir de tous les tours précédents traités séquentiellement par le playbook actuel.
    • Expressions interdites

      Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans la requête ou dans la réponse générée, la génération échoue. Sachez que la liste des expressions interdites a des conséquences sur chaque requête et appel LLM, et qu'elle augmentera la latence.

    • Filtres de protection

      Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :

      Catégorie Description
      Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés.
      Contenu dangereux Encourage ou facilite l'accès à des activités, produits et/ou services dangereux
      Contenu à caractère sexuel explicite Contient des références à des actes sexuels et/ou à d'autres contenus obscènes
      Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne

      Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en sélectionnant Bloquer quelques éléments, Bloquer certains éléments ou Bloquer la plupart des éléments pour chaque catégorie. Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.

      Pour en savoir plus, consultez Configurer les attributs de sécurité.

    • Sécurité des requêtes

      Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.

    • Remplacement génératif

  • Datastore

    Consultez Paramètres de l'agent du data store.

Flux déterministes

Ces paramètres s'appliquent à tous les flux de cet agent, à l'exception des paramètres de ML qui sont appliqués par flux. Pour modifier d'autres paramètres spécifiques au flux, accédez au flux dans la console et modifiez-y les paramètres.

  • Entraînement de l'intention

    Flows utilise des algorithmes de machine learning (ML) pour comprendre les entrées de l'utilisateur final, les mettre en correspondance avec des intents et extraire des données structurées. Les flux apprennent à partir des expressions d'entraînement que vous fournissez et des modèles de langage intégrés aux flux. Sur la base de ces données, il crée un modèle pour décider quel intent doit correspondre à l'entrée de l'utilisateur final. Vous pouvez appliquer des paramètres de ML uniques à chaque flux d'un agent.

    Les paramètres d'entraînement des intentions suivants sont disponibles :

    • Correction orthographique

      Si ce paramètre est activé et que l'entrée de l'utilisateur final comporte une faute d'orthographe ou de grammaire, un intent est mis en correspondance comme si elle avait été écrite correctement. La réponse de détection d'intent contient l'entrée corrigée de l'utilisateur final. Par exemple, si un utilisateur final saisit "Je veux une pommme", elle sera traitée comme s'il avait saisi "Je veux une pomme". Cela s'applique également aux correspondances impliquant des entités système et personnalisées.

      La correction orthographique est disponible en allemand, en anglais, en espagnol, en français et en italien. Il est disponible dans toutes les régions des agents de conversation (Dialogflow CX).

      Avertissements et bonnes pratiques :

      • La correction orthographique ne permet pas de corriger les erreurs de reconnaissance vocale automatique. Nous vous déconseillons donc de l'activer pour les agents utilisant ce type d'entrées.
      • Il est possible que l'entrée corrigée corresponde au mauvais intent. Pour résoudre ce problème, ajoutez des expressions fréquemment non concordantes aux exemples négatifs.
      • La correction orthographique augmente légèrement le temps de réponse de l'agent.
      • Si un agent est défini à l'aide d'un jargon propre à un domaine, des corrections indésirables peuvent être effectuées.
    • Paramètres de ML spécifiques au flux

      • Type de NLU

        Il peut s'agir d'un des éléments suivants :

      • Entraînement automatique

        Si cette option est activée, le flux est entraîné à chaque mise à jour avec la console. Pour les flux volumineux, cela peut entraîner des retards dans l'interface utilisateur de la console. Vous devez donc désactiver ce paramètre et réaliser un entraînement manuel si nécessaire pour les flux volumineux.

      • Seuil de classification

        Pour filtrer les résultats faux positifs tout en conservant la variété des entrées en langage naturel correspondantes pour votre agent, vous pouvez ajuster le seuil de classification du machine learning. Ce paramètre détermine le niveau minimal de fiabilité de détection d'intents requis pour une correspondance d'intent.

        Si le score de confiance d'une correspondance d'intent est inférieur à la valeur du seuil, un événement de non-correspondance est invoqué.

        Vous pouvez définir une valeur de seuil de classification distincte pour chaque flux dans chaque langue activée pour l'agent. Cela permet de s'adapter aux différentes langues qui fonctionnent le mieux à différents seuils de classification. Pour en savoir plus sur la création d'un agent multilingue, consultez la documentation sur les agents multilingues.

      • État de l'entraînement

        Indique si le flux a été entraîné depuis la dernière mise à jour des données de flux.

      • Train

        Utilisez ce bouton pour entraîner manuellement le flux.

    • Langue

      Les langues acceptées par votre agent. Une fois l'agent créé, la langue par défaut ne peut pas être modifiée. Toutefois, vous pouvez effectuer les opérations suivantes :

      1. Exportez votre agent au format JSON.
      2. Extrayez le fichier téléchargé.
      3. Recherchez le fichier agent.json.
      4. Modifiez les champs defaultLanguageCode et supportedLanguageCodes en leur attribuant les valeurs souhaitées.
      5. Restaurez l'agent sur le même agent ou sur un autre agent que celui de l'étape 1.
      6. Mettez à jour les phrases d'entraînement et les valeurs d'entité spécifiques à la langue si nécessaire.

      Vous pouvez également activer la détection et le changement automatiques de langue.

Connectivité

  • Modèle de charge utile personnalisée

    Dans cette section, vous pouvez créer des descriptions et des charges utiles pour les modèles de charge utile personnalisés.

  • Définition des paramètres

    Indiquez clairement quels paramètres de session seront envoyés au webhook et quels paramètres de session peuvent être définis par la réponse du webhook.

  • Paramètres des certificats client

    Permet d'importer des certificats SSL.

Voix et réponse vocale interactive

  • Options vocales

    • Text-to-Speech

      • Sélection de la voix

        Vous pouvez sélectionner la langue et la voix utilisées pour la synthèse vocale.

        Vous pouvez activer la voix personnalisée pour votre agent en sélectionnant l'option de voix personnalisée dans le menu déroulant de sélection de la voix et en spécifiant le nom de la voix personnalisée dans le champ correspondant. Le nom de la voix personnalisée doit respecter le format suivant : projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        Vous pouvez également utiliser le clonage de voix.

        • Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com dispose du rôle "Prédicteur AutoML" dans votre projet de voix personnalisée.
        • Pour les appels d'API réguliers, assurez-vous que le rôle "Prédicteur AutoML" est attribué au compte de service utilisé pour appeler les agents conversationnels (Dialogflow CX) dans votre projet de voix personnalisée.
      • Tonalité de la voix

        Contrôle la hauteur relative de la voix.

      • Vitesse d'élocution

        Contrôle la vitesse de lecture de la voix.

      • Prononciation

        Utilisez ces paramètres pour fournir à l'agent la prononciation de certaines expressions à l'aide de l'encodage phonétique X-SAMPA.

    • Speech-to-Text

  • Mode Compagnon pour les appels

    Consultez Assistant d'appel.

Paramètres de l'interface utilisateur

Vous pouvez utiliser ces paramètres pour personnaliser les interfaces utilisateur de Messenger et de l'application Companion d'appel.

Sécurité

Consultez Paramètres de sécurité et Contrôle des accès.

Paramètres de l'agent de la console Dialogflow CX

Pour accéder aux paramètres de l'agent :

Console

  1. Ouvrez la console.
  2. Sélectionnez votre projet Google Cloud .
  3. Sélectionnez votre agent.
  4. Cliquez sur Agent Settings (Paramètres de l'agent).
  5. Mettez à jour les paramètres comme vous le souhaitez.
  6. Cliquez sur Enregistrer.

API

Consultez les méthodes get et patch/update pour le type Agent.

Sélectionnez un protocole et une version pour la référence de l'agent :

Protocole V3 V3beta1
REST Ressource de l'agent Ressource de l'agent
RPC Interface de l'agent Interface de l'agent
C++ AgentsClient Non disponible
C# AgentsClient Non disponible
Go AgentsClient Non disponible
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponible Non disponible
Python AgentsClient AgentsClient
Ruby Non disponible Non disponible

Paramètres généraux

Les paramètres généraux suivants sont disponibles pour les agents :

  • Nom à afficher

    Nom lisible de votre agent.

  • Fuseau horaire

    Le fuseau horaire par défaut de votre agent.

  • Langue par défaut

    La langue utilisée par défaut par votre agent. Une fois l'agent créé, la langue par défaut ne peut pas être modifiée. Toutefois, vous pouvez effectuer les opérations suivantes :

    1. Exportez votre agent au format JSON.
    2. Décompressez le fichier téléchargé.
    3. Recherchez le fichier agent.json.
    4. Modifiez les champs defaultLanguageCode et supportedLanguageCodes en leur attribuant les valeurs souhaitées.
    5. Restaurez l'agent sur le même agent ou sur un autre agent que celui de l'étape 1.
    6. Mettez à jour les phrases d'entraînement et les valeurs d'entité spécifiques à la langue si nécessaire.
  • Verrouillage par l'agent

    • Verrouiller l'agent

      Indique si l'agent est verrouillé. Vous ne pouvez pas modifier un agent verrouillé.

  • Paramètres de journalisation

    • Activer Cloud Logging

      Indique si Cloud Logging est activé pour l'agent.

    • Activer la journalisation des interactions

      Indique si vous souhaitez que Google collecte et stocke les requêtes des utilisateurs finaux redacted pour améliorer la qualité.

    • Activer la suppression des entrées de l'utilisateur final en fonction du consentement

      Si ce paramètre est activé, il vous permet d'utiliser un paramètre de session spécial pour contrôler si les entrées et les paramètres des utilisateurs finaux sont masqués dans l'historique des conversations et Cloud Logging. Par défaut, le paramètre de session est true. Si ce paramètre est désactivé, aucune rédaction n'est effectuée.

      Le consentement de l'utilisateur est recueilli à l'aide d'un paramètre de session booléen : $session.params.conversation-redaction. Si ce paramètre est activé et que le paramètre de session est défini sur false, aucune suppression n'est effectuée (d'autres stratégies de suppression s'appliquent toujours). Si ce paramètre est activé et que le paramètre de session est défini sur true, la rédaction a lieu.

      Par exemple, un flux de demande de consentement peut d'abord demander à l'utilisateur s'il souhaite conserver les entrées de l'utilisateur final, puis faire correspondre la réponse à deux intents : un intent "oui" et un intent "non". Définissez ensuite le paramètre de session sur false (aucune censure) dans les préréglages des paramètres de la route "intention oui" dans Fulfillment, et sur true (censure) dans les préréglages des paramètres de la route "intention non".

  • Exportation vers BigQuery

    • Activer BigQuery Export

      Indique si l'exportation BigQuery est activée.

    • Ensemble de données BigQuery

      Nom de l'ensemble de données BigQuery.

    • Table BigQuery

      Le nom de la table BigQuery

  • Suggestions d'intent

    Vous pouvez activer les suggestions d'intent.

  • Modèle de charge utile personnalisée

    Dans cette section, vous pouvez créer des descriptions et des charges utiles pour les modèles de charge utile personnalisés.

Paramètres de ML

Les agents conversationnels (Dialogflow CX) utilisent des algorithmes de machine learning (ML) pour comprendre les entrées de l'utilisateur final, les mettre en correspondance avec des intents et extraire des données structurées. Les agents de conversation (Dialogflow CX) apprennent à partir des expressions d'entraînement que vous fournissez et des modèles de langage intégrés dans les agents de conversation (Dialogflow CX). Sur la base de ces données, il crée un modèle pour décider quel intent doit correspondre à l'entrée de l'utilisateur final. Vous pouvez appliquer des paramètres de ML uniques à chaque flux d'un agent. Le modèle créé par les agents conversationnels (Dialogflow CX) est unique pour chaque flux.

Les paramètres de ML suivants à l'échelle de l'agent sont disponibles :

  • Autoriser le ML à corriger l'orthographe

    Si ce paramètre est activé et que l'entrée de l'utilisateur final comporte une faute d'orthographe ou de grammaire, un intent est mis en correspondance comme si elle avait été écrite correctement. La réponse de détection d'intent contient l'entrée corrigée de l'utilisateur final. Par exemple, si un utilisateur final saisit "Je veux une pommme", elle sera traitée comme s'il avait saisi "Je veux une pomme". Cela s'applique également aux correspondances impliquant des entités système et personnalisées.

    La correction orthographique est disponible en allemand, en anglais, en espagnol, en français et en italien. Il est disponible dans toutes les régions des agents de conversation (Dialogflow CX).

    Avertissements et bonnes pratiques :

    • La correction orthographique ne permet pas de corriger les erreurs de reconnaissance vocale automatique. Nous vous déconseillons donc de l'activer pour les agents utilisant ce type d'entrées.
    • Il est possible que l'entrée corrigée corresponde au mauvais intent. Pour résoudre ce problème, ajoutez des expressions fréquemment non concordantes aux exemples négatifs.
    • La correction orthographique augmente légèrement le temps de réponse de l'agent.
    • Si un agent est défini à l'aide d'un jargon propre à un domaine, des corrections indésirables peuvent être effectuées.

Les paramètres de ML suivants spécifiques au flux sont disponibles :

  • Type de NLU

    Il peut s'agir d'un des éléments suivants :

  • Entraînement automatique

    Si cette option est activée, le flux est entraîné à chaque mise à jour avec la console. Pour les flux volumineux, cela peut entraîner des retards dans l'interface utilisateur de la console. Vous devez donc désactiver ce paramètre et réaliser un entraînement manuel si nécessaire pour les flux volumineux.

  • Seuil de classification

    Pour filtrer les résultats faux positifs tout en conservant la variété des entrées en langage naturel correspondantes pour votre agent, vous pouvez ajuster le seuil de classification du machine learning. Ce paramètre détermine le niveau minimal de fiabilité de détection d'intents requis pour une correspondance d'intent.

    Si le score de confiance d'une correspondance d'intent est inférieur à la valeur du seuil, un événement de non-correspondance est invoqué.

    Vous pouvez définir une valeur de seuil de classification distincte pour chaque flux dans chaque langue activée pour l'agent. Cela permet de s'adapter aux différentes langues qui fonctionnent le mieux à différents seuils de classification. Pour en savoir plus sur la création d'un agent multilingue, consultez la documentation sur les agents multilingues.

  • État de l'entraînement

    Indique si le flux a été entraîné depuis la dernière mise à jour des données de flux.

  • Entraînement de NLU

    Utilisez ce bouton pour entraîner manuellement le flux.

Paramètres de l'IA générative

Les paramètres d'IA générative suivants sont disponibles :

  • Général

    • Expressions interdites

      Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans la requête ou dans la réponse générée, la génération échoue.

    • Filtres de sécurité

      Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :

      Catégorie Description
      Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés.
      Contenu dangereux Encourage ou facilite l'accès à des activités, produits et services dangereux
      Contenu à caractère sexuel explicite Contient des références à des actes sexuels ou à d'autres contenus obscènes
      Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne

      Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en choisissant l'une des options suivantes pour chaque catégorie : Bloquer quelques éléments, Bloquer certains éléments et Bloquer la plupart des éléments. Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.

      Pour en savoir plus, consultez Configurer les attributs de sécurité.

    • Sécurité des requêtes

      Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.

  • Agent génératif

    • Sélection du modèle génératif

      Sélectionnez le modèle utilisé par les fonctionnalités génératives. Pour en savoir plus, consultez Versions de modèle.

    • Troncation du contexte du playbook

      La troncature du contexte du playbook supprime certains tours précédents de la requête du playbook afin d'empêcher la taille de la requête d'augmenter à chaque tour séquentiel géré par le playbook. Cette fonctionnalité permet d'atténuer la croissance indésirable de la taille des requêtes.

      Normalement, sans troncature, chaque tour suivant est ajouté à l'historique des conversations de l'invite LLM, qu'il soit pertinent ou non pour le tour actuel. Cela peut entraîner une augmentation de la taille de la requête à chaque tour. Plus l'historique des conversations occupe de place dans la requête, moins il reste de place pour les exemples few-shot (qui peuvent donc être supprimés). Il est également possible que la requête finisse par dépasser les limites de jetons actuelles. Vous pouvez augmenter la taille des jetons pour résoudre ce problème, mais n'oubliez pas que l'augmentation de la taille des requêtes ajoute également à la latence de la réponse du LLM.

      La troncature du contexte du playbook vous permet de définir un pourcentage du budget de jetons à réserver à l'historique des conversations, en tant que maximum. Les tours de conversation sont conservés par ordre chronologique décroissant. Ce paramètre peut vous aider à éviter de dépasser les limites de jetons. Quel que soit le paramètre choisi, au moins deux tours de conversation sont conservés, du plus récent au plus ancien.

      Vous devez d'abord définir une limite de jetons avant de pouvoir modifier ce paramètre.

      Important : La troncature du contexte peut entraîner la perte involontaire de certains paramètres s'ils font partie des tours supprimés. Évaluez attentivement vos interactions avec les playbooks après avoir activé cette option.

      Le budget d'entrée de jetons est également utilisé par les éléments suivants :

      • Instructions et exemples du système : ajoutés automatiquement à la requête. Ce comportement ne peut pas être modifié.
      • Instructions et objectifs du playbook : toutes les instructions et tous les objectifs que vous rédigez seront ajoutés à la requête dans leur intégralité.
      • Exemples few-shot de playbook : ils sont ajoutés dans l'ordre (par défaut) ou par un algorithme de votre choix (par exemple, l'ordre de correspondance optimale des expressions régulières). Les exemples sont sélectionnés pour respecter le budget de jetons d'entrée une fois que tous les autres éléments sont inclus.
      • Historique des conversations composé des énoncés de l'utilisateur et de l'agent, du contexte de transition de flux et de playbook, des appels d'outils et des sorties de la même session à partir de tous les tours précédents traités séquentiellement par le playbook actuel.
  • Remplacement génératif

  • Datastore

    Consultez Paramètres de l'agent du data store.

Paramètres vocaux et de réponse vocale interactive

Les paramètres vocaux et de réponse vocale interactive suivants sont disponibles :

  • Text-to-Speech

    • Sélection de la voix

      Vous pouvez sélectionner la langue et la voix utilisées pour la synthèse vocale.

      Vous pouvez activer la voix personnalisée pour votre agent en sélectionnant l'option de voix personnalisée dans le menu déroulant de sélection de la voix et en spécifiant le nom de la voix personnalisée dans le champ correspondant. Le nom de la voix personnalisée doit respecter le format suivant : projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com dispose du rôle "Prédicteur AutoML" dans votre projet de voix personnalisée.
      • Pour les appels d'API réguliers, assurez-vous que le rôle "Prédicteur AutoML" est attribué au compte de service utilisé pour appeler les agents conversationnels (Dialogflow CX) dans votre projet de voix personnalisée.
  • Speech-to-Text

DTMF

Pour en savoir plus, consultez DTMF pour les intégrations de téléphonie.

Multimodal

Consultez Assistant d'appel.

Paramètres de partage

Consultez la page Contrôle des accès.

Paramètres linguistiques

Ajoutez des langues supplémentaires à votre agent. Pour obtenir la liste complète des langues, consultez la documentation de référence sur les langages.

Détection automatique de la langue

Lorsque vous configurez la détection automatique de la langue, votre agent de chat détecte automatiquement la langue de l'utilisateur final et passe à cette langue. Pour en savoir plus, consultez la documentation sur la détection automatique de la langue.

Paramètres de sécurité

Consultez la section Paramètres de sécurité.

Paramètres avancés

Actuellement, le seul paramètre avancé est l'analyse des sentiments.

Paramètres de la console Applications d'IA

Cette section décrit les paramètres disponibles pour les applications d'agent.

Général

Les paramètres généraux suivants sont disponibles pour les applications d'agent :

  • Nom à afficher

    Nom lisible de votre application d'agent.

  • Emplacement

    Région de l'application d'agent.

  • Verrouillage d'applications

    Si elle est activée, vous n'êtes pas autorisé à modifier l'application d'agent.

Journalisation

Les paramètres de journalisation suivants sont disponibles pour les applications d'agent :

  • Activer Cloud Logging

    Si cette option est activée, les journaux seront envoyés à Cloud Logging.

  • Activer l'historique des conversations

    Si elle est activée, l'historique des conversations sera disponible. Indique si vous souhaitez que Google collecte et stocke les requêtes expurgées des utilisateurs finaux pour améliorer la qualité. Ce paramètre n'a aucune incidence sur l'utilisation de l'historique des conversations pour générer les réponses de l'agent.

  • Activer BigQuery Export

    Si cette option est activée, l'historique des conversations est exporté vers BigQuery. Le paramètre Activer l'historique des conversations doit également être activé.

IA générative

Les paramètres d'IA générative suivants sont disponibles pour les applications d'agent :

  • Sélection du modèle génératif

    Sélectionnez le modèle génératif que les agents doivent utiliser par défaut.

  • Limite de jetons d'entrée

    Sélectionnez la limite de jetons d'entrée pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les entrées envoyées au modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille d'entrée du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille d'entrée du modèle peut être plus grande.

  • Limite de jetons de sortie

    Sélectionnez la limite de jetons de sortie pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les résultats reçus du modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille de la sortie du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille de la sortie du modèle peut être plus grande.

  • Température

    La température d'un LLM vous permet de contrôler le degré de créativité des réponses. Une valeur faible permet d'obtenir des réponses plus prévisibles. Une valeur élevée fournit des réponses plus créatives ou aléatoires.

  • Expressions interdites

    Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans l'invite ou la réponse générée, l'agent renvoie une réponse de remplacement.

  • Filtres de sécurité

    Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :

    Catégorie Description
    Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés.
    Contenu dangereux Encourage ou facilite l'accès à des activités, produits et services dangereux
    Contenu à caractère sexuel explicite Contient des références à des actes sexuels ou à d'autres contenus obscènes
    Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne

    Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en choisissant l'une des options suivantes pour chaque catégorie : Bloquer peu (bloque uniquement les instances de contenu dangereux à probabilité élevée), Bloquer certains (instances à probabilité moyenne et élevée) et Bloquer la plupart (instances à probabilité faible, moyenne et élevée). Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.

    Pour en savoir plus, consultez Configurer les attributs de sécurité.

  • Sécurité des requêtes

    Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.

Git

Ces paramètres fournissent une intégration Git. Suivez les instructions pour configurer l'intégration.