Les paramètres de configuration suivants de l'outil de data store sont disponibles.
Paramètres de l'outil (console des agents de conversation uniquement)
La sélection d'une option dans le menu déroulant Paramètres de l'outil affecte automatiquement les autres configurations d'outils disponibles.
Les options Default
et Optimized for voice
sont des paramètres par défaut qui configureront automatiquement tous les autres paramètres du menu de configuration de l'outil.
Les options suivantes sont disponibles :
Nom du paramètre de l'outil | Description |
---|---|
Par défaut | Optimisé pour tous les types d'agents. |
Optimisé pour la voix | Ce type d'outil par défaut a été configuré spécifiquement pour les agents vocaux. |
Personnaliser | L'option Customize vous permet de spécifier vos propres paramètres Ancrage, Réécriture et Synthèse au lieu d'utiliser les valeurs par défaut Default et Optimized for voice attribuées. |
Surface de référence
Les agents conversationnels (Dialogflow CX) calculent un niveau de confiance pour chaque réponse générée à partir du contenu de vos data stores connectés. Cela permet d'évaluer la confiance que toutes les informations de la réponse sont étayées par des informations dans les data stores. Vous pouvez ajuster les réponses autorisées en sélectionnant le niveau de confiance le plus bas qui vous convient. Vous pouvez sélectionner le niveau de confiance le plus bas autorisé. L'agent ne renverra pas de réponses inférieures à ce niveau.
Vous avez le choix entre cinq niveaux de confiance : VERY_LOW
, LOW
, MEDIUM
, HIGH
et VERY_HIGH
.
Vous pouvez également appliquer un filtre d'heuristique d'ancrage. Si cette option est activée, les réponses contenant des contenus probablement inexacts en raison d'hallucinations courantes sont supprimées.
Sélectionner un modèle de synthèse
Vous pouvez sélectionner le modèle génératif utilisé par un agent de data store pour la requête générative de synthèse. Le tableau suivant contient les options disponibles :
Nom du modèle | Étape de lancement | Spécifications du modèle |
---|---|---|
Par défaut | DG | Il s'agit de la configuration recommandée, qui peut être modifiée au fil du temps. Si vous utilisez cette option, vous constaterez peut-être des changements dans le comportement de l'agent (probablement des améliorations). Si vous souhaitez que l'agent se comporte de manière plus cohérente, sélectionnez un modèle spécifique. |
gemini-2.0-flash-001 | DG | Gemini 2.0 Flash |
gemini-2.0-flash-lite-001 | DG | Gemini 2.0 Flash-Lite |
gemini-2.5-flash | Aperçu public | Gemini 2.5 Flash |
gemini-1.5-flash-001 | Ancienne | Gemini 1.5 Flash |
gemini-1.5-flash-002 | Ancienne | Gemini 1.5 Flash |
Tous les modèles listés sont disponibles dans toutes les langues et régions acceptées. |gemini_20_flash_lite_001_voice_mode | Optimisé pour la voix. Disponible dans toutes les langues acceptées |
Requête personnalisée de synthèse
Vous pouvez utiliser une requête de synthèse par défaut avec le modèle de synthèse sélectionné ou fournir la vôtre. La requête est un modèle de texte qui peut contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacés par les valeurs appropriées au moment de l'exécution, et le texte final sera envoyé au LLM.
Les espaces réservés sont les suivants :
$original-query
: texte de la requête de l'utilisateur.$rewritten-query
: Dialogflow utilise un module de réécriture pour reformuler la requête utilisateur d'origine dans un format plus précis.$sources
: Dialogflow utilise la recherche Enterprise Search pour rechercher des sources en fonction de la requête de l'utilisateur. Les sources trouvées sont affichées dans un format spécifique :[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: les informations sur l'utilisateur qui envoie la requête sont affichées au format suivant :The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: l'historique des conversations est affiché au format suivant :Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}
: version paramétrée de l'espace réservé$conversation
. Vous pouvez personnaliser le préfixe de l'utilisateur final (USER
), le préfixe de l'agent (AGENT
) et le nombre de tours précédents à inclure (TURNS
). Toutes les valeurs des paramètres d'espace réservé doivent être spécifiées.Par exemple,
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}
. L'historique des conversations s'affiche comme suit :Human says: user's first query Agent says: answer to user's first query
Une requête personnalisée doit indiquer au LLM de renvoyer "NOT_ENOUGH_INFORMATION" lorsqu'il ne peut pas fournir de réponse. Dans ce cas, l'agent appelle un événement sans correspondance.
Exemple :
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Sélectionner un modèle de réécriture
Lorsqu'une requête utilisateur est traitée, l'agent envoie la requête utilisateur et une invite au LLM pour refactoriser la requête utilisateur, ce qui effectue une réécriture.
Vous pouvez sélectionner le modèle génératif utilisé par un agent de data store pour la requête générative de réécriture. Le tableau suivant répertorie les options disponibles :
Identifiant du modèle | Langues acceptées |
---|---|
Par défaut | Il s'agit de la configuration recommandée, qui peut être modifiée au fil du temps. Si vous utilisez cette option, vous constaterez peut-être des changements dans le comportement de l'agent (probablement des améliorations). Si vous souhaitez que l'agent se comporte de manière plus cohérente, sélectionnez un modèle spécifique. |
gemini-1.5-flash-001 | Disponible dans toutes les langues acceptées. |
gemini-2.0-flash-001 | Disponible dans toutes les langues acceptées. |
gemini-2.0-flash-lite-001 | Disponible dans toutes les langues acceptées. |
gemini-xs | Disponible dans toutes les langues acceptées. |
Réécriture désactivée | Disponible dans toutes les langues acceptées. |
Requête personnalisée de réécriture
Vous pouvez utiliser une requête par défaut ou en fournir une. La requête est un modèle de texte qui peut contenir des espaces réservés prédéfinis. Les espaces réservés seront remplacés par les valeurs appropriées au moment de l'exécution, et le texte final sera envoyé au LLM.
Voici les espaces réservés et le texte requis :
$original-query
: texte de la requête de l'utilisateur.$conversation
: l'historique des conversations est affiché au format suivant :Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
$end-user-metadata
: les informations sur l'utilisateur qui envoie la requête sont affichées au format suivant :The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
Exemple :
Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.
Conversation History: $conversation
Human: $original-query
Search Query:
Paramètres de la charge utile
Les paramètres de charge utile permettent d'ajouter les extraits du data store en tant que contenu enrichi dans la charge utile de réponse, qui est affichée dans Messenger. Vous pouvez activer ou désactiver cette fonctionnalité.