Agents haben viele Einstellungen, die sich auf ihr Verhalten auswirken. Jede Konsole bietet unterschiedliche Einstellungen.
Agent-Einstellungen in der Konsole für Konversations-Agenten
So rufen Sie Agent-Einstellungen auf:
Console
- Öffnen Sie die Konsole für Konversations-Agents.
- Wählen Sie Ihr Google Cloud Projekt aus.
- Wählen Sie den Agent aus.
- Klicken Sie rechts oben auf das Symbol für die Einstellungen.
- Aktualisieren Sie die Einstellungen nach Bedarf.
- Klicken Sie auf Speichern.
API
Siehe die Methoden get
und patch/update
für den Typ Agent
.
Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:
Protokoll | V3 | V3beta1 |
---|---|---|
REST | Agent-Ressource | Agent-Ressource |
RPC | Agent-Oberfläche | Agent-Oberfläche |
C++ | AgentsClient | Nicht verfügbar |
C# | AgentsClient | Nicht verfügbar |
Go | AgentsClient | Nicht verfügbar |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Nicht verfügbar | Nicht verfügbar |
Python | AgentsClient | AgentsClient |
Ruby | Nicht verfügbar | Nicht verfügbar |
In folgenden Unterabschnitten werden die verschiedenen Kategorien der Agent-Einstellungen beschrieben.
Allgemeine Einstellungen
Für Agents sind folgende allgemeine Einstellungen verfügbar:
-
Ein für Menschen lesbarer Name für Ihren Agent.
-
Die Standardzeitzone für den Agent.
-
Diese Einstellung bestimmt, ob Ihr Agent die Unterhaltung mit einem generativen Playbook oder einem deterministischen Ablauf startet.
Standort des Kundenservicemitarbeiters
Die Agent-Region, die Sie beim Erstellen des Agents ausgewählt haben.
-
Agent sperren
Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.
Einstellungen für die Protokollierung
Cloud Logging aktivieren
Gibt an, ob Cloud Logging für den Agent aktiviert ist.
Unterhaltungsverlauf aktivieren
Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.
Einwilligungsbasierte Schwärzung von Endnutzereingaben aktivieren
Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Endnutzereingaben und Parameter aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Der Standardsitzungsparameter ist
true
. Wenn diese Einstellung deaktiviert ist, erfolgt keine Schwärzung.Die Nutzereinwilligung wird über einen booleschen Sitzungsparameter erfasst:
$session.params.conversation-redaction
. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auffalse
gesetzt ist, erfolgt keine Schwärzung (andere Schwärzungsstrategien gelten weiterhin). Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auftrue
festgelegt ist, werden Daten unkenntlich gemacht.Ein Beispiel für einen Ablauf zum Einholen der Einwilligung: Fragen Sie den Nutzer zuerst, ob er die Endnutzereingabe beibehalten möchte, und ordnen Sie die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in der Auftragsausführung auf
false
(keine Schwärzung) und in der Parametervoreinstellung der Route „no intent“ auftrue
(Schwärzung erfolgt) fest.
-
BigQuery Export aktivieren
Gibt an, ob der BigQuery-Export aktiviert ist.
BigQuery-Dataset
Der Name des BigQuery-Datasets.
BigQuery-Tabelle
Der Name der BigQuery-Tabelle.
-
Sie können Intent-Vorschläge aktivieren.
-
Sie können diese Einstellung aktivieren, um Feedback zur Qualität der Antworten des Agents zu geben, einschließlich „Gute Antwort“ / „Schlechte Antwort“.
-
Mit dieser Einstellung können Sie eine Git-Integration hinzufügen.
Einstellungen für generative KI
Die folgenden Einstellungen für generative KI sind verfügbar:
Allgemein
Auswahl des generativen Modells
Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.
Token limits
-
Wählen Sie das Eingabetokenlimit für das generative Modell aus. Dies ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modell-Eingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Eingabegröße des Modells kann größer sein.
-
Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Dies ist die maximale Token-Größe für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Kleinere Token-Limits haben eine geringere Latenz, aber die Ausgabegröße des Modells ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Ausgabegröße des Modells kann größer sein.
-
-
Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.
-
Mit dieser Einstellung werden einige vergangene Turns aus dem LLM-Prompt entfernt, damit die Prompt-Größe nicht mit jedem sequenziellen Turn, der vom Agent bearbeitet wird, wächst. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Promptgröße eindämmen.
Normalerweise wird ohne Kürzung jede nachfolgende Runde an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Antwort größer wird. Je mehr des Prompts vom Unterhaltungsverlauf eingenommen wird, desto weniger des Prompts kann für Few-Shot-Beispiele verwendet werden. Diese werden dann möglicherweise ausgelassen. Außerdem kann es sein, dass der Prompt die aktuellen Tokenlimits überschreitet. Sie können die Token-Größen erhöhen, um dem Rechnung zu tragen. Beachten Sie jedoch, dass größere Prompts auch die Antwortlatenz des LLM erhöhen.
Mit der Kontextkürzung können Sie einen Prozentsatz des Token-Budgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsrunden werden in der Reihenfolge vom neuesten zum ältesten Eintrag aufbewahrt. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der gewählten Einstellung werden mindestens zwei Gesprächsrunden beibehalten, und zwar in der Reihenfolge von der neuesten zur ältesten.
Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.
Wenn der Kontext gekürzt wird, können einige Parameter versehentlich verloren gehen, wenn sie Teil der entfernten Turns sind. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.
Das Token-Eingabebudget wird auch für Folgendes verwendet:
- Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
- Playbook-Anweisungen und ‑Ziele: Alle Anweisungen und Ziele, die Sie eingeben, werden vollständig in den Prompt aufgenommen.
- Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (Standard) oder nach einem von Ihnen ausgewählten Algorithmus (z. B. Sortierung nach bester Übereinstimmung mit regulären Ausdrücken) hinzugefügt. Beispiele werden gekürzt, um das Budget für Eingabetokens einzuhalten, nachdem alle anderen Elemente berücksichtigt wurden.
- Der Unterhaltungsverlauf besteht aus Äußerungen von Nutzern und Agenten, dem Kontext für Ablauf- und Playbook-Übergänge, Tool-Aufrufen und Ausgaben in derselben Sitzung aus allen vorherigen Runden, die sequenziell vom aktuellen Playbook verarbeitet wurden.
-
Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe in der Eingabeaufforderung oder der generierten Antwort vorkommt, schlägt die Generierung fehl. Die Liste der verbotenen Begriffe wirkt sich auf jede Anfrage und jeden LLM-Aufruf aus und erhöht die Latenz.
-
Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:
Kategorie Beschreibung Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und/oder Aktivitäten Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen und/oder andere vulgäre Inhalte Belästigung Böswillige, einschüchternde, mobbende und/oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Empfindlichkeitsstufe kann für jede Kategorie angepasst werden, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.
Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.
-
Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts offenzulegen oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.
Generativer Fallback
Konfiguration von Text-Prompts
Weitere Informationen finden Sie unter Generativer Fallback: eigenen Prompt definieren.
Datenspeicher
Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.
Deterministische Abläufe
Diese Einstellungen gelten für alle Abläufe in diesem Agent, mit Ausnahme der ML-Einstellungen, die pro Ablauf angewendet werden. Wenn Sie andere flussbezogene Einstellungen bearbeiten möchten, rufen Sie den Fluss in der Konsole auf und bearbeiten Sie die Einstellungen dort.
Absichtstraining
Flows nutzt Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Flows lernen aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Flows integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen.
Folgende Einstellungen für das Intentionstraining sind verfügbar:
-
Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.
Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.
Warnungen und Best Practices:
- Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
- Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
- Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
- Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.
Ablaufspezifische ML-Einstellungen
-
Dies kann einer der folgenden sein:
- Erweiterte NLU (Standard): Erweiterte NLU-Technologie. Dieser NLU-Typ funktioniert besser als der Standardtyp, insbesondere bei großen Agents und Abläufen.
- Standard-NLU: Standard-NLU-Technologie. keine Qualitätsverbesserungen oder neuen Funktionen mehr erhalten.
-
Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.
-
Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.
Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.
Sie können für jeden Ablauf in jeder für den Agent aktivierten Sprache einen separaten Klassifizierungsschwellenwert festlegen. So wird berücksichtigt, dass verschiedene Sprachen bei unterschiedlichen Klassifizierungsschwellenwerten am besten funktionieren. Weitere Informationen zum Erstellen eines mehrsprachigen Agents finden Sie in der Dokumentation zu mehrsprachigen Agents.
-
Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.
-
Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.
-
-
Die von Ihrem Agent unterstützten Sprachen. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie können jedoch Folgendes tun:
- Exportieren Sie Ihren Agent in das JSON-Format.
- Extrahieren Sie die heruntergeladene Datei.
- Suchen Sie nach der Datei
agent.json
. - Aktualisieren Sie die Felder
defaultLanguageCode
undsupportedLanguageCodes
mit den gewünschten Werten. - Stellen Sie den Agenten wieder her. Sie können ihn im selben oder in einem anderen Agenten wiederherstellen, den Sie in Schritt 1 erstellt haben.
- Aktualisieren Sie sprachspezifische Trainingsformulierungen und Entitätswerte nach Bedarf.
Sie können auch die automatische Spracherkennung und den automatischen Sprachwechsel aktivieren.
-
Verbindung
Benutzerdefinierte Nutzlastvorlage
In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.
-
Geben Sie deutlich an, welche Parameter aus den Sitzungsparametern an den Webhook gesendet werden und welche Sitzungsparameter durch die Antwort des Webhooks festgelegt werden können.
-
Zum Hochladen von SSL-Zertifikaten.
Sprache und IVR
Sprachoptionen
-
-
Sie können die Sprache und Stimme für die Sprachsynthese auswählen.
Sie können Benutzerdefinierte Stimme für Ihren Agent aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ im Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme im entsprechenden Feld angeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.Sie können auch Stimmklonierung verwenden.
- Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein. - Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Conversational Agents (Dialogflow CX) aufgerufen wird, in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen ist.
- Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent
-
Steuert die relative Höhe oder Tiefe des Sprechtons.
-
Steuert die Sprechgeschwindigkeit der Stimme.
-
Mit diesen Einstellungen können Sie dem Agenten die Aussprache bestimmter Formulierungen mithilfe der X-SAMPA-Lautschrift mitteilen.
-
-
Automatische Sprachanpassung aktivieren
Weitere Informationen finden sich unter Automatische Sprachanpassung.
Erweiterte Spracheinstellungen aktivieren
Weitere Informationen zu erweiterten Sprachoptionen finden Sie im Leitfaden Erweiterte Spracheinstellungen.
-
Weitere Informationen finden Sie unter DTMF für Telefonieintegrationen.
Manuelle Sprachanpassung aktivieren
Weitere Informationen finden Sie unter Manuelle Sprachanpassung.
-
Anruf-Companion
Weitere Informationen finden Sie unter Call Companion.
UI-Einstellungen
Mit diesen Einstellungen können Sie die Benutzeroberflächen von Messenger und Call Companion anpassen.
Sicherheit
Weitere Informationen finden Sie unter Sicherheitseinstellungen und Zugriffssteuerung.
Dialogflow CX Console – Agent-Einstellungen
So rufen Sie Agent-Einstellungen auf:
Console
- Öffnen Sie die Konsole.
- Wählen Sie Ihr Google Cloud Projekt aus.
- Wählen Sie den Agent aus.
- Klicken Sie auf Agent-Einstellungen.
- Aktualisieren Sie die Einstellungen nach Bedarf.
- Klicken Sie auf Speichern.
API
Siehe die Methoden get
und patch/update
für den Typ Agent
.
Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:
Protokoll | V3 | V3beta1 |
---|---|---|
REST | Agent-Ressource | Agent-Ressource |
RPC | Agent-Oberfläche | Agent-Oberfläche |
C++ | AgentsClient | Nicht verfügbar |
C# | AgentsClient | Nicht verfügbar |
Go | AgentsClient | Nicht verfügbar |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Nicht verfügbar | Nicht verfügbar |
Python | AgentsClient | AgentsClient |
Ruby | Nicht verfügbar | Nicht verfügbar |
Allgemeine Einstellungen
Für Agents sind folgende allgemeine Einstellungen verfügbar:
Anzeigename
Ein für Menschen lesbarer Name für Ihren Agent.
Zeitzone
Die Standardzeitzone für den Agent.
Standardsprache
Die von Ihrem Agent unterstützte Standardsprache. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie können jedoch Folgendes tun:
- Exportieren Sie Ihren Agent in das JSON-Format.
- Entpacken Sie die heruntergeladene Datei.
- Suchen Sie nach der Datei
agent.json
. - Aktualisieren Sie die Felder
defaultLanguageCode
undsupportedLanguageCodes
mit den gewünschten Werten. - Stellen Sie den Agenten wieder her. Sie können ihn im selben oder in einem anderen Agenten wiederherstellen, den Sie in Schritt 1 erstellt haben.
- Aktualisieren Sie sprachspezifische Trainingsformulierungen und Entitätswerte nach Bedarf.
Agent-Sperre
Agent sperren
Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.
Einstellungen für die Protokollierung
Cloud Logging aktivieren
Gibt an, ob Cloud Logging für den Agent aktiviert ist.
Interaktions-Logging aktivieren
Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.
Einwilligungsbasierte Schwärzung von Endnutzereingaben aktivieren
Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Endnutzereingaben und Parameter standardmäßig aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Der Sitzungsparameter ist standardmäßig
true
. Wenn diese Einstellung deaktiviert ist, erfolgt keine Schwärzung.Die Nutzereinwilligung wird über einen booleschen Sitzungsparameter erfasst:
$session.params.conversation-redaction
. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auffalse
gesetzt ist, erfolgt keine Schwärzung (andere Schwärzungsstrategien gelten weiterhin). Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auftrue
festgelegt ist, werden Daten unkenntlich gemacht.Ein Beispiel für einen Ablauf zum Einholen der Einwilligung: Fragen Sie den Nutzer zuerst, ob er die Endnutzereingabe beibehalten möchte, und ordnen Sie die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in der Auftragsausführung auf
false
(keine Schwärzung) und in der Parametervoreinstellung der Route „no intent“ auftrue
(Schwärzung erfolgt) fest.
BigQuery-Export
BigQuery Export aktivieren
Gibt an, ob der BigQuery-Export aktiviert ist.
BigQuery-Dataset
Der Name des BigQuery-Datasets.
BigQuery-Tabelle
Der Name der BigQuery-Tabelle.
Vorschläge für Intents
Sie können Intent-Vorschläge aktivieren.
Benutzerdefinierte Nutzlastvorlage
In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.
ML-Einstellungen
Konversations-Agents (Dialogflow CX) verwenden Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Konversations-Agents (Dialogflow CX) lernen aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Konversations-Agents (Dialogflow CX) integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen. Das von Conversational Agents (Dialogflow CX) erstellte Modell ist für jeden Ablauf einmalig.
Die folgenden Agent-weiten ML-Einstellungen sind verfügbar:
ML zulassen, um die Rechtschreibung zu korrigieren
Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.
Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.
Warnungen und Best Practices:
- Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
- Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
- Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
- Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.
Die folgenden ablaufspezifischen ML-Einstellungen sind verfügbar:
NLU-Typ
Dies kann einer der folgenden sein:
- Erweiterte NLU (Standard): Erweiterte NLU-Technologie. Dieser NLU-Typ funktioniert besser als der Standardtyp, insbesondere bei großen Agents und Abläufen.
- Standard-NLU: Standard-NLU-Technologie. keine Qualitätsverbesserungen oder neuen Funktionen mehr.
Auto-Training
Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.
Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.
Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.
Sie können für jeden Ablauf in jeder für den Agent aktivierten Sprache einen separaten Klassifizierungsschwellenwert festlegen. So wird berücksichtigt, dass verschiedene Sprachen bei unterschiedlichen Klassifizierungsschwellenwerten am besten funktionieren. Weitere Informationen zum Erstellen eines mehrsprachigen Agents finden Sie in der Dokumentation zu mehrsprachigen Agents.
Trainingsstatus
Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.
NLU trainieren
Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.
Einstellungen für generative KI
Die folgenden Einstellungen für generative KI sind verfügbar:
Allgemein
Verbotene Wortgruppen
Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe in der Eingabeaufforderung oder der generierten Antwort vorkommt, schlägt die Generierung fehl.
Sicherheitsfilter
Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:
Kategorie Beschreibung Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Empfindlichkeitsstufe kann für jede Kategorie angepasst werden, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.
Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.
Prompt-Sicherheit
Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts preiszugeben oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.
Generativer Agent
Auswahl des generativen Modells
Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.
Kürzung des Playbook-Kontexts
Bei der Kürzung des Playbook-Kontexts werden einige vergangene Züge aus dem Playbook-Prompt entfernt, damit die Prompt-Größe nicht mit jedem sequenziellen Zug wächst, der vom Playbook verarbeitet wird. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Promptgröße eindämmen.
Normalerweise wird ohne Kürzung jede nachfolgende Runde an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Antwort größer wird. Je mehr des Prompts vom Unterhaltungsverlauf eingenommen wird, desto weniger des Prompts kann für Few-Shot-Beispiele verwendet werden. Diese werden dann möglicherweise ausgelassen. Außerdem kann es sein, dass der Prompt die aktuellen Tokenlimits überschreitet. Sie können die Token-Größen erhöhen, um dem Rechnung zu tragen. Beachten Sie jedoch, dass größere Prompts auch die Antwortlatenz des LLM erhöhen.
Mit der Kürzung des Playbook-Kontexts können Sie einen Prozentsatz des Token-Budgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsrunden werden in der Reihenfolge vom neuesten zum ältesten Eintrag aufbewahrt. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der gewählten Einstellung werden mindestens zwei Gesprächsrunden beibehalten, und zwar in der Reihenfolge von der neuesten zur ältesten.
Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.
Wichtig:Wenn der Kontext gekürzt wird, gehen möglicherweise einige Parameter versehentlich verloren, wenn sie Teil der entfernten Turns sind. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.
Das Token-Eingabebudget wird auch für Folgendes verwendet:
- Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
- Playbook-Anweisungen und ‑Ziele: Alle Anweisungen und Ziele, die Sie eingeben, werden vollständig in den Prompt aufgenommen.
- Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (Standard) oder nach einem von Ihnen ausgewählten Algorithmus (z. B. Sortierung nach bester Übereinstimmung mit regulären Ausdrücken) hinzugefügt. Beispiele werden gekürzt, um das Budget für Eingabetokens einzuhalten, nachdem alle anderen Elemente berücksichtigt wurden.
- Der Unterhaltungsverlauf besteht aus Äußerungen von Nutzern und Agenten, dem Kontext für Ablauf- und Playbook-Übergänge, Tool-Aufrufen und Ausgaben in derselben Sitzung aus allen vorherigen Runden, die sequenziell vom aktuellen Playbook verarbeitet wurden.
Generativer Fallback
Konfiguration von Text-Prompts
Weitere Informationen finden Sie unter Generativer Fallback: eigenen Prompt definieren.
Datenspeicher
Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.
Einstellungen für Sprache und IVR
Folgende Einstellungen für Sprache und IVR sind verfügbar:
Text-to-Speech
Stimm- und Sprachauswahl
Sie können die Sprache und Stimme für die Sprachsynthese auswählen.
Sie können Benutzerdefinierte Stimme für Ihren Agent aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ im Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme im entsprechenden Feld angeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein. - Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Conversational Agents (Dialogflow CX) aufgerufen wird, in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen ist.
- Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent
Speech-to-Text
Automatische Sprachanpassung aktivieren
Weitere Informationen finden sich unter Automatische Sprachanpassung.
Erweiterte Spracheinstellungen
Weitere Informationen zu erweiterten Sprachoptionen finden Sie im Leitfaden Erweiterte Spracheinstellungen.
DTMF
Weitere Informationen finden Sie unter DTMF für Telefonieintegrationen.
Multimodal
Weitere Informationen finden Sie unter Call Companion.
Freigabeeinstellungen
Weitere Informationen finden sich unter Zugriffssteuerung.
Spracheinstellungen
Fügen Sie Ihrem Agent zusätzliche Sprachunterstützung hinzu. Eine vollständige Liste der Sprachen finden Sie in der Sprachreferenz.
Automatische Spracherkennung
Wenn Sie die automatische Spracherkennung konfigurieren, erkennt Ihr Chatbot automatisch die Sprache des Endnutzers und wechselt zu dieser Sprache. Weitere Informationen finden Sie in der Dokumentation zur automatischen Spracherkennung.
Sicherheitseinstellungen
Weitere Informationen finden Sie unter Sicherheitseinstellungen.
Erweiterte Einstellungen
Derzeit ist die einzige erweiterte Einstellung für die Sentimentanalyse.
Konsoleneinstellungen für AI Applications
In diesem Abschnitt werden die Einstellungen beschrieben, die für Agent-Apps verfügbar sind.
Allgemein
Für Agent-Apps sind folgende allgemeine Einstellungen verfügbar:
Anzeigename
Ein für Menschen lesbarer Name für Ihre Agent-App.
Standort
Die Region der Agent-App.
App-Sperre
Wenn diese Option aktiviert ist, sind keine Änderungen an der Agent-App zulässig.
Logging
Die folgenden Logging-Einstellungen sind für Agent-Apps verfügbar:
Cloud Logging aktivieren
Wenn diese Option aktiviert ist, werden Logs an Cloud Logging gesendet.
Chatverlauf aktivieren
Wenn diese Option aktiviert ist, ist der Unterhaltungsverlauf verfügbar. Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen. Diese Einstellung hat keinen Einfluss darauf, ob der Unterhaltungsverlauf zum Generieren von Agent-Antworten verwendet wird.
BigQuery Export aktivieren
Wenn diese Option aktiviert ist, wird der Unterhaltungsverlauf nach BigQuery exportiert. Die Einstellung Chatprotokoll aktivieren muss ebenfalls aktiviert sein.
GenAI
Die folgenden Einstellungen für generative KI sind für Agent-Apps verfügbar:
Generatives Modell auswählen
Wählen Sie das generative Modell aus, das Agents standardmäßig verwenden sollen.
Eingabetokenlimit
Wählen Sie das Eingabetokenlimit für das generative Modell aus. Dies ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modell-Eingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Eingabegröße des Modells kann größer sein.
Tokenausgabelimit
Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Dies ist die maximale Token-Größe für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Kleinere Token-Limits haben eine geringere Latenz, aber die Ausgabegröße des Modells ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Ausgabegröße des Modells kann größer sein.
Temperatur
Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.
Verbotene Wortgruppen
Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe im Prompt oder in der generierten Antwort vorkommt, gibt der Agent stattdessen eine Fallback-Antwort zurück.
Sicherheitsfilter
Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:
Kategorie Beschreibung Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Sensitivitätsstufe kann für jede Kategorie angepasst werden, indem Sie eine der folgenden Optionen auswählen: Wenige blockieren (nur Fälle mit hoher Wahrscheinlichkeit für schädliche Inhalte werden blockiert), Einige blockieren (Fälle mit mittlerer und hoher Wahrscheinlichkeit) und Meiste blockieren (Fälle mit niedriger, mittlerer und hoher Wahrscheinlichkeit). Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.
Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.
Prompt-Sicherheit
Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts offenzulegen oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.
Git
Diese Einstellungen bieten eine Git-Integration. Folgen Sie der Anleitung, um die Integration zu konfigurieren.