Les agents disposent de nombreux paramètres qui affectent leur comportement. Chaque console propose des paramètres différents.
Paramètres de l'agent de la console des agents conversationnels
Pour accéder aux paramètres de l'agent :
Console
- Ouvrez la console Agents conversationnels.
- Sélectionnez votre projet Google Cloud .
- Sélectionnez votre agent.
- Cliquez sur l'icône Paramètres en haut à droite.
- Mettez à jour les paramètres comme vous le souhaitez.
- Cliquez sur Enregistrer.
API
Consultez les méthodes get
et patch/update
pour le type Agent
.
Sélectionnez un protocole et une version pour la référence de l'agent :
Protocole | V3 | V3beta1 |
---|---|---|
REST | Ressource de l'agent | Ressource de l'agent |
RPC | Interface de l'agent | Interface de l'agent |
C++ | AgentsClient | Non disponible |
C# | AgentsClient | Non disponible |
Go | AgentsClient | Non disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Non disponible | Non disponible |
Python | AgentsClient | AgentsClient |
Ruby | Non disponible | Non disponible |
Les sous-sections suivantes décrivent les différentes catégories de paramètres d'agent.
Paramètres généraux
Les paramètres généraux suivants sont disponibles pour les agents :
-
Nom lisible de votre agent.
-
Le fuseau horaire par défaut de votre agent.
-
Ce paramètre détermine si votre agent commence la conversation avec un playbook génératif ou un flux déterministe.
-
Région de l'agent que vous avez sélectionnée lors de la création de l'agent.
-
Verrouiller l'agent
Indique si l'agent est verrouillé. Vous ne pouvez pas modifier un agent verrouillé.
-
Activer Cloud Logging
Indique si Cloud Logging est activé pour l'agent.
Activer l'historique des conversations
Indique si vous souhaitez que Google collecte et stocke les requêtes des utilisateurs finaux redacted pour améliorer la qualité.
Activer la suppression des entrées de l'utilisateur final en fonction du consentement
Si ce paramètre est activé, il vous permet d'utiliser un paramètre de session spécial pour contrôler si les entrées et les paramètres des utilisateurs finaux sont masqués dans l'historique des conversations et dans Cloud Logging. Par défaut, le paramètre de session est défini sur
true
. Si ce paramètre est désactivé, aucune rédaction n'est effectuée.Le consentement de l'utilisateur est recueilli à l'aide d'un paramètre de session booléen :
$session.params.conversation-redaction
. Si ce paramètre est activé et que le paramètre de session est défini surfalse
, aucune suppression n'est effectuée (d'autres stratégies de suppression s'appliquent toujours). Si ce paramètre est activé et que le paramètre de session est défini surtrue
, la rédaction a lieu.Par exemple, un flux de demande de consentement peut d'abord demander à l'utilisateur s'il souhaite conserver les entrées de l'utilisateur final, puis faire correspondre la réponse à deux intents : un intent "oui" et un intent "non". Définissez ensuite le paramètre de session sur
false
(aucune censure) dans les préréglages de paramètres de la route "intent yes" (intention oui) dans fulfillment, et surtrue
(censure) dans les préréglages de paramètres de la route "intent no" (intention non).
-
Activer BigQuery Export
Indique si l'exportation BigQuery est activée.
Ensemble de données BigQuery
Nom de l'ensemble de données BigQuery.
Table BigQuery
Le nom de la table BigQuery
-
Vous pouvez activer les suggestions d'intent.
-
Vous pouvez activer ce paramètre pour donner votre avis sur la qualité des réponses de l'agent, y compris en cliquant sur "J'aime" ou "Je n'aime pas".
-
Utilisez ce paramètre pour ajouter une intégration Git.
Paramètres de l'IA générative
Les paramètres d'IA générative suivants sont disponibles :
Général
-
Sélectionnez le modèle utilisé par les fonctionnalités génératives. Pour en savoir plus, consultez Versions de modèle.
Limites de jetons
-
Sélectionnez la limite de jetons d'entrée pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les entrées envoyées au modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille d'entrée du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille d'entrée du modèle peut être plus grande.
-
Sélectionnez la limite de jetons de sortie pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les résultats reçus du modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille de la sortie du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille de la sortie du modèle peut être plus grande.
-
-
La température d'un LLM vous permet de contrôler le degré de créativité des réponses. Une valeur faible permet d'obtenir des réponses plus prévisibles. Une valeur élevée fournit des réponses plus créatives ou aléatoires.
-
Ce paramètre supprime certains tours passés de l'invite LLM afin d'empêcher la taille de l'invite de croître à chaque tour séquentiel géré par l'agent. Cette fonctionnalité permet d'atténuer la croissance indésirable de la taille des requêtes.
Normalement, sans troncature, chaque tour suivant est ajouté à l'historique des conversations de l'invite LLM, qu'il soit pertinent ou non pour le tour actuel. Cela peut entraîner une augmentation de la taille de la requête à chaque tour. Plus l'historique des conversations occupe de place dans la requête, moins il reste de place pour les exemples few-shot (qui peuvent donc être supprimés). Il est également possible que la requête finisse par dépasser les limites de jetons actuelles. Vous pouvez augmenter la taille des jetons pour résoudre ce problème, mais n'oubliez pas que l'augmentation de la taille des requêtes ajoute également de la latence à la réponse du LLM.
La troncature du contexte vous permet de définir un pourcentage du budget de jetons à réserver pour l'historique des conversations, en tant que maximum. Les tours de conversation sont conservés par ordre chronologique décroissant. Ce paramètre peut vous aider à éviter de dépasser les limites de jetons. Quel que soit le paramètre choisi, au moins deux tours de conversation sont conservés, du plus récent au plus ancien.
Vous devez d'abord définir une limite de jetons avant de pouvoir modifier ce paramètre.
La troncature du contexte peut entraîner la perte involontaire de certains paramètres s'ils font partie des tours supprimés. Évaluez attentivement vos interactions avec les playbooks après avoir activé cette option.
Le budget d'entrée de jetons est également utilisé par les éléments suivants :
- Instructions et exemples du système : ajoutés automatiquement à la requête. Ce comportement ne peut pas être modifié.
- Instructions et objectifs du playbook : toutes les instructions et tous les objectifs que vous rédigez seront ajoutés à la requête dans leur intégralité.
- Exemples few-shot de playbook : ils sont ajoutés dans l'ordre (par défaut) ou par un algorithme de votre choix (par exemple, l'ordre de correspondance optimale des expressions régulières). Les exemples sont sélectionnés pour respecter le budget de jetons d'entrée une fois que tous les autres éléments sont inclus.
- Historique des conversations composé des énoncés de l'utilisateur et de l'agent, du contexte de transition de flux et de playbook, des appels d'outils et des sorties de la même session à partir de tous les tours précédents traités séquentiellement par le playbook actuel.
-
Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans la requête ou dans la réponse générée, la génération échoue. Sachez que la liste des expressions interdites a des conséquences sur chaque requête et appel LLM, et qu'elle augmentera la latence.
-
Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :
Catégorie Description Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés. Contenu dangereux Encourage ou facilite l'accès à des activités, produits et/ou services dangereux Contenu à caractère sexuel explicite Contient des références à des actes sexuels et/ou à d'autres contenus obscènes Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en sélectionnant Bloquer quelques éléments, Bloquer certains éléments ou Bloquer la plupart des éléments pour chaque catégorie. Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.
Pour en savoir plus, consultez Configurer les attributs de sécurité.
-
Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.
Remplacement génératif
Configuration des requêtes textuelles
Consultez Logique de secours générative : définir votre propre requête.
-
Datastore
Consultez Paramètres de l'agent du data store.
Flux déterministes
Ces paramètres s'appliquent à tous les flux de cet agent, à l'exception des paramètres de ML qui sont appliqués par flux. Pour modifier d'autres paramètres spécifiques au flux, accédez au flux dans la console et modifiez-y les paramètres.
Entraînement de l'intention
Flows utilise des algorithmes de machine learning (ML) pour comprendre les entrées de l'utilisateur final, les mettre en correspondance avec des intents et extraire des données structurées. Les flux apprennent à partir des expressions d'entraînement que vous fournissez et des modèles de langage intégrés aux flux. Sur la base de ces données, il crée un modèle pour décider quel intent doit correspondre à l'entrée de l'utilisateur final. Vous pouvez appliquer des paramètres de ML uniques à chaque flux d'un agent.
Les paramètres d'entraînement des intentions suivants sont disponibles :
-
Si ce paramètre est activé et que l'entrée de l'utilisateur final comporte une faute d'orthographe ou de grammaire, un intent est mis en correspondance comme si elle avait été écrite correctement. La réponse de détection d'intent contient l'entrée corrigée de l'utilisateur final. Par exemple, si un utilisateur final saisit "Je veux une pommme", elle sera traitée comme s'il avait saisi "Je veux une pomme". Cela s'applique également aux correspondances impliquant des entités système et personnalisées.
La correction orthographique est disponible en allemand, en anglais, en espagnol, en français et en italien. Il est disponible dans toutes les régions des agents de conversation (Dialogflow CX).
Avertissements et bonnes pratiques :
- La correction orthographique ne permet pas de corriger les erreurs de reconnaissance vocale automatique. Nous vous déconseillons donc de l'activer pour les agents utilisant ce type d'entrées.
- Il est possible que l'entrée corrigée corresponde au mauvais intent. Pour résoudre ce problème, ajoutez des expressions fréquemment non concordantes aux exemples négatifs.
- La correction orthographique augmente légèrement le temps de réponse de l'agent.
- Si un agent est défini à l'aide d'un jargon propre à un domaine, des corrections indésirables peuvent être effectuées.
Paramètres de ML spécifiques au flux
-
Il peut s'agir d'un des éléments suivants :
- NLU avancé (par défaut) : technologie NLU avancée. Ce type de NLU est plus performant que la version standard, en particulier pour les agents et flux volumineux.
- NLU standard : technologie NLU standard. ne recevra plus d'améliorations de la qualité ni de nouvelles fonctionnalités.
-
Si cette option est activée, le flux est entraîné à chaque mise à jour avec la console. Pour les flux volumineux, cela peut entraîner des retards dans l'interface utilisateur de la console. Vous devez donc désactiver ce paramètre et réaliser un entraînement manuel si nécessaire pour les flux volumineux.
-
Pour filtrer les résultats faux positifs tout en conservant la variété des entrées en langage naturel correspondantes pour votre agent, vous pouvez ajuster le seuil de classification du machine learning. Ce paramètre détermine le niveau minimal de fiabilité de détection d'intents requis pour une correspondance d'intent.
Si le score de confiance d'une correspondance d'intent est inférieur à la valeur du seuil, un événement de non-correspondance est invoqué.
Vous pouvez définir une valeur de seuil de classification distincte pour chaque flux dans chaque langue activée pour l'agent. Cela permet de s'adapter aux différentes langues qui fonctionnent le mieux à différents seuils de classification. Pour en savoir plus sur la création d'un agent multilingue, consultez la documentation sur les agents multilingues.
-
Indique si le flux a été entraîné depuis la dernière mise à jour des données de flux.
-
Utilisez ce bouton pour entraîner manuellement le flux.
-
-
Les langues acceptées par votre agent. Une fois l'agent créé, la langue par défaut ne peut pas être modifiée. Toutefois, vous pouvez effectuer les opérations suivantes :
- Exportez votre agent au format JSON.
- Extrayez le fichier téléchargé.
- Recherchez le fichier
agent.json
. - Modifiez les champs
defaultLanguageCode
etsupportedLanguageCodes
en leur attribuant les valeurs souhaitées. - Restaurez l'agent sur le même agent ou sur un autre agent que celui de l'étape 1.
- Mettez à jour les phrases d'entraînement et les valeurs d'entité spécifiques à la langue si nécessaire.
Vous pouvez également activer la détection et le changement automatiques de langue.
-
Connectivité
Modèle de charge utile personnalisée
Dans cette section, vous pouvez créer des descriptions et des charges utiles pour les modèles de charge utile personnalisés.
-
Indiquez clairement quels paramètres de session seront envoyés au webhook et quels paramètres de session peuvent être définis par la réponse du webhook.
Paramètres des certificats client
Permet d'importer des certificats SSL.
Voix et réponse vocale interactive
Options vocales
-
-
Vous pouvez sélectionner la langue et la voix utilisées pour la synthèse vocale.
Vous pouvez activer la voix personnalisée pour votre agent en sélectionnant l'option de voix personnalisée dans le menu déroulant de sélection de la voix et en spécifiant le nom de la voix personnalisée dans le champ correspondant. Le nom de la voix personnalisée doit respecter le format suivant :
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.Vous pouvez également utiliser le clonage de voix.
- Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
dispose du rôle "Prédicteur AutoML" dans votre projet de voix personnalisée. - Pour les appels d'API réguliers, assurez-vous que le rôle "Prédicteur AutoML" est attribué au compte de service utilisé pour appeler les agents conversationnels (Dialogflow CX) dans votre projet de voix personnalisée.
- Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow
-
Contrôle la hauteur relative de la voix.
-
Contrôle la vitesse de lecture de la voix.
-
Utilisez ces paramètres pour fournir à l'agent la prononciation de certaines expressions à l'aide de l'encodage phonétique X-SAMPA.
-
-
Activer l'adaptation vocale automatique
Consultez l'adaptation vocale automatique.
Activer les paramètres vocaux avancés
Pour en savoir plus sur les options vocales avancées, consultez le guide Paramètres vocaux avancés.
-
Pour en savoir plus, consultez DTMF pour les intégrations de téléphonie.
Activer l'adaptation vocale manuelle
Consultez la section Adaptation vocale manuelle.
-
Mode Compagnon pour les appels
Consultez Assistant d'appel.
Paramètres de l'interface utilisateur
Vous pouvez utiliser ces paramètres pour personnaliser les interfaces utilisateur de Messenger et de l'application Companion d'appel.
Sécurité
Consultez Paramètres de sécurité et Contrôle des accès.
Paramètres de l'agent de la console Dialogflow CX
Pour accéder aux paramètres de l'agent :
Console
- Ouvrez la console.
- Sélectionnez votre projet Google Cloud .
- Sélectionnez votre agent.
- Cliquez sur Agent Settings (Paramètres de l'agent).
- Mettez à jour les paramètres comme vous le souhaitez.
- Cliquez sur Enregistrer.
API
Consultez les méthodes get
et patch/update
pour le type Agent
.
Sélectionnez un protocole et une version pour la référence de l'agent :
Protocole | V3 | V3beta1 |
---|---|---|
REST | Ressource de l'agent | Ressource de l'agent |
RPC | Interface de l'agent | Interface de l'agent |
C++ | AgentsClient | Non disponible |
C# | AgentsClient | Non disponible |
Go | AgentsClient | Non disponible |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Non disponible | Non disponible |
Python | AgentsClient | AgentsClient |
Ruby | Non disponible | Non disponible |
Paramètres généraux
Les paramètres généraux suivants sont disponibles pour les agents :
Nom à afficher
Nom lisible de votre agent.
Fuseau horaire
Le fuseau horaire par défaut de votre agent.
Langue par défaut
La langue utilisée par défaut par votre agent. Une fois l'agent créé, la langue par défaut ne peut pas être modifiée. Toutefois, vous pouvez effectuer les opérations suivantes :
- Exportez votre agent au format JSON.
- Décompressez le fichier téléchargé.
- Recherchez le fichier
agent.json
. - Modifiez les champs
defaultLanguageCode
etsupportedLanguageCodes
en leur attribuant les valeurs souhaitées. - Restaurez l'agent sur le même agent ou sur un autre agent que celui de l'étape 1.
- Mettez à jour les phrases d'entraînement et les valeurs d'entité spécifiques à la langue si nécessaire.
Verrouillage par l'agent
Verrouiller l'agent
Indique si l'agent est verrouillé. Vous ne pouvez pas modifier un agent verrouillé.
Paramètres de journalisation
Activer Cloud Logging
Indique si Cloud Logging est activé pour l'agent.
Activer la journalisation des interactions
Indique si vous souhaitez que Google collecte et stocke les requêtes des utilisateurs finaux redacted pour améliorer la qualité.
Activer la suppression des entrées de l'utilisateur final en fonction du consentement
Si ce paramètre est activé, il vous permet d'utiliser un paramètre de session spécial pour contrôler si les entrées et les paramètres des utilisateurs finaux sont masqués dans l'historique des conversations et Cloud Logging. Par défaut, le paramètre de session est
true
. Si ce paramètre est désactivé, aucune rédaction n'est effectuée.Le consentement de l'utilisateur est recueilli à l'aide d'un paramètre de session booléen :
$session.params.conversation-redaction
. Si ce paramètre est activé et que le paramètre de session est défini surfalse
, aucune suppression n'est effectuée (d'autres stratégies de suppression s'appliquent toujours). Si ce paramètre est activé et que le paramètre de session est défini surtrue
, la rédaction a lieu.Par exemple, un flux de demande de consentement peut d'abord demander à l'utilisateur s'il souhaite conserver les entrées de l'utilisateur final, puis faire correspondre la réponse à deux intents : un intent "oui" et un intent "non". Définissez ensuite le paramètre de session sur
false
(aucune censure) dans les préréglages des paramètres de la route "intention oui" dans Fulfillment, et surtrue
(censure) dans les préréglages des paramètres de la route "intention non".
Exportation vers BigQuery
Activer BigQuery Export
Indique si l'exportation BigQuery est activée.
Ensemble de données BigQuery
Nom de l'ensemble de données BigQuery.
Table BigQuery
Le nom de la table BigQuery
Suggestions d'intent
Vous pouvez activer les suggestions d'intent.
Modèle de charge utile personnalisée
Dans cette section, vous pouvez créer des descriptions et des charges utiles pour les modèles de charge utile personnalisés.
Paramètres de ML
Les agents conversationnels (Dialogflow CX) utilisent des algorithmes de machine learning (ML) pour comprendre les entrées de l'utilisateur final, les mettre en correspondance avec des intents et extraire des données structurées. Les agents de conversation (Dialogflow CX) apprennent à partir des expressions d'entraînement que vous fournissez et des modèles de langage intégrés dans les agents de conversation (Dialogflow CX). Sur la base de ces données, il crée un modèle pour décider quel intent doit correspondre à l'entrée de l'utilisateur final. Vous pouvez appliquer des paramètres de ML uniques à chaque flux d'un agent. Le modèle créé par les agents conversationnels (Dialogflow CX) est unique pour chaque flux.
Les paramètres de ML suivants à l'échelle de l'agent sont disponibles :
Autoriser le ML à corriger l'orthographe
Si ce paramètre est activé et que l'entrée de l'utilisateur final comporte une faute d'orthographe ou de grammaire, un intent est mis en correspondance comme si elle avait été écrite correctement. La réponse de détection d'intent contient l'entrée corrigée de l'utilisateur final. Par exemple, si un utilisateur final saisit "Je veux une pommme", elle sera traitée comme s'il avait saisi "Je veux une pomme". Cela s'applique également aux correspondances impliquant des entités système et personnalisées.
La correction orthographique est disponible en allemand, en anglais, en espagnol, en français et en italien. Il est disponible dans toutes les régions des agents de conversation (Dialogflow CX).
Avertissements et bonnes pratiques :
- La correction orthographique ne permet pas de corriger les erreurs de reconnaissance vocale automatique. Nous vous déconseillons donc de l'activer pour les agents utilisant ce type d'entrées.
- Il est possible que l'entrée corrigée corresponde au mauvais intent. Pour résoudre ce problème, ajoutez des expressions fréquemment non concordantes aux exemples négatifs.
- La correction orthographique augmente légèrement le temps de réponse de l'agent.
- Si un agent est défini à l'aide d'un jargon propre à un domaine, des corrections indésirables peuvent être effectuées.
Les paramètres de ML suivants spécifiques au flux sont disponibles :
Type de NLU
Il peut s'agir d'un des éléments suivants :
- NLU avancé (par défaut) : technologie NLU avancée. Ce type de NLU est plus performant que la version standard, en particulier pour les agents et flux volumineux.
- NLU standard : technologie NLU standard. ne recevra plus d'améliorations de la qualité ni de nouvelles fonctionnalités.
Entraînement automatique
Si cette option est activée, le flux est entraîné à chaque mise à jour avec la console. Pour les flux volumineux, cela peut entraîner des retards dans l'interface utilisateur de la console. Vous devez donc désactiver ce paramètre et réaliser un entraînement manuel si nécessaire pour les flux volumineux.
Seuil de classification
Pour filtrer les résultats faux positifs tout en conservant la variété des entrées en langage naturel correspondantes pour votre agent, vous pouvez ajuster le seuil de classification du machine learning. Ce paramètre détermine le niveau minimal de fiabilité de détection d'intents requis pour une correspondance d'intent.
Si le score de confiance d'une correspondance d'intent est inférieur à la valeur du seuil, un événement de non-correspondance est invoqué.
Vous pouvez définir une valeur de seuil de classification distincte pour chaque flux dans chaque langue activée pour l'agent. Cela permet de s'adapter aux différentes langues qui fonctionnent le mieux à différents seuils de classification. Pour en savoir plus sur la création d'un agent multilingue, consultez la documentation sur les agents multilingues.
État de l'entraînement
Indique si le flux a été entraîné depuis la dernière mise à jour des données de flux.
Entraînement de NLU
Utilisez ce bouton pour entraîner manuellement le flux.
Paramètres de l'IA générative
Les paramètres d'IA générative suivants sont disponibles :
Général
Expressions interdites
Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans la requête ou dans la réponse générée, la génération échoue.
Filtres de sécurité
Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :
Catégorie Description Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés. Contenu dangereux Encourage ou facilite l'accès à des activités, produits et services dangereux Contenu à caractère sexuel explicite Contient des références à des actes sexuels ou à d'autres contenus obscènes Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en choisissant l'une des options suivantes pour chaque catégorie : Bloquer quelques éléments, Bloquer certains éléments et Bloquer la plupart des éléments. Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.
Pour en savoir plus, consultez Configurer les attributs de sécurité.
Sécurité des requêtes
Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.
Agent génératif
Sélection du modèle génératif
Sélectionnez le modèle utilisé par les fonctionnalités génératives. Pour en savoir plus, consultez Versions de modèle.
Troncation du contexte du playbook
La troncature du contexte du playbook supprime certains tours précédents de la requête du playbook afin d'empêcher la taille de la requête d'augmenter à chaque tour séquentiel géré par le playbook. Cette fonctionnalité permet d'atténuer la croissance indésirable de la taille des requêtes.
Normalement, sans troncature, chaque tour suivant est ajouté à l'historique des conversations de l'invite LLM, qu'il soit pertinent ou non pour le tour actuel. Cela peut entraîner une augmentation de la taille de la requête à chaque tour. Plus l'historique des conversations occupe de place dans la requête, moins il reste de place pour les exemples few-shot (qui peuvent donc être supprimés). Il est également possible que la requête finisse par dépasser les limites de jetons actuelles. Vous pouvez augmenter la taille des jetons pour résoudre ce problème, mais n'oubliez pas que l'augmentation de la taille des requêtes ajoute également à la latence de la réponse du LLM.
La troncature du contexte du playbook vous permet de définir un pourcentage du budget de jetons à réserver à l'historique des conversations, en tant que maximum. Les tours de conversation sont conservés par ordre chronologique décroissant. Ce paramètre peut vous aider à éviter de dépasser les limites de jetons. Quel que soit le paramètre choisi, au moins deux tours de conversation sont conservés, du plus récent au plus ancien.
Vous devez d'abord définir une limite de jetons avant de pouvoir modifier ce paramètre.
Important : La troncature du contexte peut entraîner la perte involontaire de certains paramètres s'ils font partie des tours supprimés. Évaluez attentivement vos interactions avec les playbooks après avoir activé cette option.
Le budget d'entrée de jetons est également utilisé par les éléments suivants :
- Instructions et exemples du système : ajoutés automatiquement à la requête. Ce comportement ne peut pas être modifié.
- Instructions et objectifs du playbook : toutes les instructions et tous les objectifs que vous rédigez seront ajoutés à la requête dans leur intégralité.
- Exemples few-shot de playbook : ils sont ajoutés dans l'ordre (par défaut) ou par un algorithme de votre choix (par exemple, l'ordre de correspondance optimale des expressions régulières). Les exemples sont sélectionnés pour respecter le budget de jetons d'entrée une fois que tous les autres éléments sont inclus.
- Historique des conversations composé des énoncés de l'utilisateur et de l'agent, du contexte de transition de flux et de playbook, des appels d'outils et des sorties de la même session à partir de tous les tours précédents traités séquentiellement par le playbook actuel.
Remplacement génératif
Configuration des requêtes textuelles
Consultez Logique de secours générative : définir votre propre requête.
Datastore
Consultez Paramètres de l'agent du data store.
Paramètres vocaux et de réponse vocale interactive
Les paramètres vocaux et de réponse vocale interactive suivants sont disponibles :
Text-to-Speech
Sélection de la voix
Vous pouvez sélectionner la langue et la voix utilisées pour la synthèse vocale.
Vous pouvez activer la voix personnalisée pour votre agent en sélectionnant l'option de voix personnalisée dans le menu déroulant de sélection de la voix et en spécifiant le nom de la voix personnalisée dans le champ correspondant. Le nom de la voix personnalisée doit respecter le format suivant :
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
dispose du rôle "Prédicteur AutoML" dans votre projet de voix personnalisée. - Pour les appels d'API réguliers, assurez-vous que le rôle "Prédicteur AutoML" est attribué au compte de service utilisé pour appeler les agents conversationnels (Dialogflow CX) dans votre projet de voix personnalisée.
- Si vous utilisez une passerelle téléphonique, assurez-vous que le compte de service Agent de service Dialogflow
Speech-to-Text
Activer l'adaptation vocale automatique
Consultez l'adaptation vocale automatique.
Paramètres vocaux avancés
Pour en savoir plus sur les options vocales avancées, consultez le guide Paramètres vocaux avancés.
DTMF
Pour en savoir plus, consultez DTMF pour les intégrations de téléphonie.
Multimodal
Consultez Assistant d'appel.
Paramètres de partage
Consultez la page Contrôle des accès.
Paramètres linguistiques
Ajoutez des langues supplémentaires à votre agent. Pour obtenir la liste complète des langues, consultez la documentation de référence sur les langages.
Détection automatique de la langue
Lorsque vous configurez la détection automatique de la langue, votre agent de chat détecte automatiquement la langue de l'utilisateur final et passe à cette langue. Pour en savoir plus, consultez la documentation sur la détection automatique de la langue.
Paramètres de sécurité
Consultez la section Paramètres de sécurité.
Paramètres avancés
Actuellement, le seul paramètre avancé est l'analyse des sentiments.
Paramètres de la console Applications d'IA
Cette section décrit les paramètres disponibles pour les applications d'agent.
Général
Les paramètres généraux suivants sont disponibles pour les applications d'agent :
Nom à afficher
Nom lisible de votre application d'agent.
Emplacement
Région de l'application d'agent.
Verrouillage d'applications
Si elle est activée, vous n'êtes pas autorisé à modifier l'application d'agent.
Journalisation
Les paramètres de journalisation suivants sont disponibles pour les applications d'agent :
Activer Cloud Logging
Si cette option est activée, les journaux seront envoyés à Cloud Logging.
Activer l'historique des conversations
Si elle est activée, l'historique des conversations sera disponible. Indique si vous souhaitez que Google collecte et stocke les requêtes expurgées des utilisateurs finaux pour améliorer la qualité. Ce paramètre n'a aucune incidence sur l'utilisation de l'historique des conversations pour générer les réponses de l'agent.
Activer BigQuery Export
Si cette option est activée, l'historique des conversations est exporté vers BigQuery. Le paramètre Activer l'historique des conversations doit également être activé.
IA générative
Les paramètres d'IA générative suivants sont disponibles pour les applications d'agent :
Sélection du modèle génératif
Sélectionnez le modèle génératif que les agents doivent utiliser par défaut.
Limite de jetons d'entrée
Sélectionnez la limite de jetons d'entrée pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les entrées envoyées au modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille d'entrée du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille d'entrée du modèle peut être plus grande.
Limite de jetons de sortie
Sélectionnez la limite de jetons de sortie pour le modèle génératif. Il s'agit de la taille maximale des jetons pour les résultats reçus du modèle. Selon le modèle, un jeton peut correspondre à un caractère ou à un mot. Les limites de jetons plus petites ont une latence plus faible, mais la taille de la sortie du modèle est limitée. Les limites de jetons plus élevées ont une latence plus importante, mais la taille de la sortie du modèle peut être plus grande.
Température
La température d'un LLM vous permet de contrôler le degré de créativité des réponses. Une valeur faible permet d'obtenir des réponses plus prévisibles. Une valeur élevée fournit des réponses plus créatives ou aléatoires.
Expressions interdites
Liste des expressions interdites pour l'IA générative. Si une expression interdite apparaît dans l'invite ou la réponse générée, l'agent renvoie une réponse de remplacement.
Filtres de sécurité
Configurez les niveaux de sensibilité des filtres de sécurité par rapport aux différentes catégories d'IA responsable (RAI). Les contenus seront évalués selon les quatre catégories suivantes :
Catégorie Description Incitation à la haine Commentaires négatifs ou offensants ciblant l'identité et/ou les attributs protégés. Contenu dangereux Encourage ou facilite l'accès à des activités, produits et services dangereux Contenu à caractère sexuel explicite Contient des références à des actes sexuels ou à d'autres contenus obscènes Harcèlement Commentaires malveillants, intimidants ou abusifs ciblant une autre personne Le contenu est bloqué s'il est susceptible d'être nuisible. Vous pouvez personnaliser le niveau de sensibilité en choisissant l'une des options suivantes pour chaque catégorie : Bloquer peu (bloque uniquement les instances de contenu dangereux à probabilité élevée), Bloquer certains (instances à probabilité moyenne et élevée) et Bloquer la plupart (instances à probabilité faible, moyenne et élevée). Vous pouvez également accéder à l'option restreinte Bloquer aucune, qui désactive les vérifications de l'IA responsable pour la catégorie après avoir envoyé une demande d'acceptation des risques pour votre projet et l'avoir reçue.
Pour en savoir plus, consultez Configurer les attributs de sécurité.
Sécurité des requêtes
Vous pouvez cocher le paramètre enable prompt security check (activer la vérification de sécurité des requêtes) pour activer les vérifications de sécurité des requêtes. Lorsqu'il est activé, l'agent tente d'empêcher les attaques par injection de requête. Ces attaques peuvent être utilisées pour révéler des parties de l'invite de l'agent ou pour fournir des réponses que l'agent n'est pas censé fournir. Pour ce faire, une requête LLM supplémentaire est envoyée afin de vérifier si la requête de l'utilisateur est potentiellement malveillante.
Git
Ces paramètres fournissent une intégration Git. Suivez les instructions pour configurer l'intégration.