Die folgenden Konfigurationseinstellungen für das Datenspeichertool sind verfügbar.
Tooleinstellungen (nur Konsole für Konversations-Agenten)
Wenn Sie eine Option aus dem Drop-down-Menü Tool settings (Tooleinstellungen) auswählen, wird automatisch festgelegt, welche anderen Toolkonfigurationen verfügbar sind.
Die Optionen Default
und Optimized for voice
sind Standardeinstellungen, mit denen alle anderen Parameter im Menü „Tool-Konfiguration“ automatisch konfiguriert werden.
Folgende Optionen sind verfügbar:
Name der Tool-Einstellung | Beschreibung |
---|---|
Standard | Für alle Agent-Typen optimiert. |
Für Sprache optimiert | Dieser Standardtooltyp wurde speziell für Sprach-Agents konfiguriert. |
Anpassen | Wenn Sie die Option Customize auswählen, können Sie Ihre eigenen Parameter für Grounding, Rewriter und Summarization angeben, anstatt die zugewiesenen Standardwerte Default und Optimized for voice zu verwenden. |
Fundierung
Bei Konversations-Agents (Dialogflow CX) wird für jede Antwort, die aus dem Inhalt Ihrer verbundenen Datenspeicher generiert wird, ein Konfidenzniveau berechnet. Damit wird das Vertrauen gemessen, dass alle Informationen in der Antwort durch Informationen in den Datenspeichern gestützt werden. Sie können anpassen, welche Antworten zulässig sind, indem Sie das niedrigste Konfidenzniveau auswählen, das für Sie akzeptabel ist. Sie können das niedrigste zulässige Konfidenzniveau auswählen. Der Agent gibt dann keine Antworten zurück, die unter diesem Niveau liegen.
Es gibt fünf Konfidenzniveaus: VERY_LOW
, LOW
, MEDIUM
, HIGH
und VERY_HIGH
.
Sie können auch einen Filter für Grounding-Heuristiken anwenden. Wenn diese Option aktiviert ist, werden Antworten unterdrückt, die Inhalte enthalten, die auf Grundlage häufiger Halluzinationen wahrscheinlich ungenau sind.
Modell für Zusammenfassungen auswählen
Sie können das generative Modell auswählen, das von einem Datenspeicher-Agent für die generative Zusammenfassungsanfrage verwendet wird. Die folgende Tabelle enthält die verfügbaren Optionen:
Modellname | Markteinführungsphase | Modellspezifikation |
---|---|---|
Standard | GA | Dies ist die empfohlene Konfiguration. Sie kann sich im Laufe der Zeit ändern. Wenn Sie diese Option verwenden, kann sich das Verhalten des Agents ändern (wahrscheinlich zum Besseren). Wenn Sie ein konsistenteres Agent-Verhalten wünschen, wählen Sie ein bestimmtes Modell aus. |
gemini-2.0-flash-001 | GA | Gemini 2.0 Flash |
gemini-2.0-flash-lite-001 | GA | Gemini 2.0 Flash Lite |
gemini-2.5-flash | Öffentliche Vorschau | Gemini 2.5 Flash |
gemini-1.5-flash-001 | Alt | Gemini 1.5 Flash |
gemini-1.5-flash-002 | Alt | Gemini 1.5 Flash |
Alle aufgeführten Modelle sind in allen unterstützten Sprachen und unterstützten Regionen verfügbar. |gemini_20_flash_lite_001_voice_mode | Für die Sprachsteuerung optimiert. In allen unterstützten Sprachen verfügbar |
Benutzerdefinierter Prompt für die Zusammenfassung
Sie können entweder einen Standard-Prompt für die Zusammenfassung mit dem ausgewählten Modell für die Zusammenfassung verwenden oder einen eigenen Prompt angeben. Der Prompt ist eine Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird an das LLM gesendet.
Die Platzhalter sind:
$original-query
: Der Abfragetext des Nutzers.$rewritten-query
: Dialogflow verwendet ein Rewriter-Modul, um die ursprüngliche Nutzeranfrage in ein genaueres Format umzuschreiben.$sources
: Dialogflow verwendet Enterprise Search, um basierend auf der Anfrage des Nutzers nach Quellen zu suchen. Die gefundenen Quellen werden in einem bestimmten Format dargestellt:[1] title of first source content of first source [2] title of second source content of second source
$end-user-metadata
: Informationen zum Nutzer, der die Anfrage sendet, werden im folgenden Format gerendert:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
$conversation
: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
${conversation USER:"<user prefix>" AGENT:"<agent prefix>" TURNS:<turn count>}
: Eine parametrisierte Version des Platzhalters$conversation
. Sie können das Endnutzerpräfix (USER
), das Agent-Präfix (AGENT
) und die Anzahl der vorherigen Runden, die einbezogen werden sollen (TURNS
), anpassen. Alle Platzhalterparameterwerte müssen angegeben werden.Beispiel:
${conversation USER:"Human says:" AGENT:"Agent says:" TURNS:1}
. Der Unterhaltungsverlauf wird so dargestellt:Human says: user's first query Agent says: answer to user's first query
Ein benutzerdefinierter Prompt sollte das LLM anweisen, „NOT_ENOUGH_INFORMATION“ zurückzugeben, wenn es keine Antwort liefern kann. In diesem Fall ruft der Agent ein no-match-Ereignis auf.
Beispiel:
Given the conversation between a Human and a AI assistant and a list of sources,
write a final answer for the AI assistant.
Follow these guidelines:
+ Answer the Human's query and make sure you mention all relevant details from
the sources, using exactly the same words as the sources if possible.
+ The answer must be based only on the sources and not introduce any additional
information.
+ All numbers, like price, date, time or phone numbers must appear exactly as
they are in the sources.
+ Give as comprehensive answer as possible given the sources. Include all
important details, and any caveats and conditions that apply.
+ The answer MUST be in English.
+ Don't try to make up an answer: If the answer cannot be found in the sources,
you admit that you don't know and you answer NOT_ENOUGH_INFORMATION.
You will be given a few examples before you begin.
Example 1:
Sources:
[1] <product or service> Info Page
Yes, <company> offers <product or service> in various options or variations.
Human: Do you sell <product or service>?
AI: Yes, <company> sells <product or service>. Is there anything else I can
help you with?
Example 2:
Sources:
[1] Andrea - Wikipedia
Andrea is a given name which is common worldwide for both males and females.
Human: How is the weather?
AI: NOT_ENOUGH_INFORMATION
Begin! Let's work this out step by step to be sure we have the right answer.
Sources:
$sources
$end-user-metadata
$conversation
Human: $original-query
AI:
Modell zum Umschreiben auswählen
Wenn eine Nutzeranfrage verarbeitet wird, sendet der Agent die Nutzeranfrage und einen Prompt an das LLM, um die Nutzeranfrage umzugestalten. Dies entspricht einem Rewriter.
Sie können das generative Modell auswählen, das von einem Data Store-Agent für die generative Anfrage zum Umschreiben verwendet wird. In der folgenden Tabelle sind die verfügbaren Optionen aufgeführt:
Modell-ID | Sprachunterstützung |
---|---|
Standard | Dies ist die empfohlene Konfiguration. Sie kann sich im Laufe der Zeit ändern. Wenn Sie diese Option verwenden, kann sich das Verhalten des Kundenservicemitarbeiters ändern (wahrscheinlich zum Besseren). Wenn Sie ein konsistenteres Agent-Verhalten wünschen, wählen Sie ein bestimmtes Modell aus. |
gemini-1.5-flash-001 | In allen unterstützten Sprachen verfügbar. |
gemini-2.0-flash-001 | In allen unterstützten Sprachen verfügbar. |
gemini-2.0-flash-lite-001 | In allen unterstützten Sprachen verfügbar. |
gemini-xs | In allen unterstützten Sprachen verfügbar. |
Rewriter deaktiviert | In allen unterstützten Sprachen verfügbar. |
Benutzerdefinierter Prompt für Rewriter
Sie können eine Standardaufforderung verwenden oder eine eigene angeben. Der Prompt ist eine Textvorlage, die vordefinierte Platzhalter enthalten kann. Die Platzhalter werden zur Laufzeit durch die entsprechenden Werte ersetzt und der endgültige Text wird an das LLM gesendet.
Die Platzhalter und der erforderliche Text sind:
$original-query
: Der Abfragetext des Nutzers.$conversation
: Der Unterhaltungsverlauf wird im folgenden Format gerendert:Human: user's first query AGENT: answer to user's first query Human: user's second query AGENT: answer to user's second query
$end-user-metadata
: Informationen zum Nutzer, der die Anfrage sendet, werden im folgenden Format gerendert:The following additional information is available about the human: { "key1": "value1", "key2": "value2", ... }
Beispiel:
Your goal is to perform a search query to help the AI assistant respond to the human's last statement.
* Always output the best search query you can, even if you suspect it's not needed.
* Never generate a query that is the same as the user's last statement.
* Include as much context as necessary from the conversation history.
* Output a concise search query, and nothing else.
* Don't use quotes or search operators.
* The query must be in ${language!}.
Conversation History: $conversation
Human: $original-query
Search Query:
Nutzlasteinstellungen
Mit den Nutzlast-Einstellungen können Sie die Data Store-Snippets als Rich Content in die Antwortnutzlast einfügen, die im Messenger gerendert wird. Sie können diese Funktion aktivieren oder deaktivieren.