Agent-Einstellungen

Für Kundenservicemitarbeiter gibt es viele Einstellungen, die sich auf das Verhalten auswirken. Die einzelnen Konsolen bieten unterschiedliche Einstellungen.

Einstellungen für den Agenten in der Dialogflow CX Console

So rufen Sie Agent-Einstellungen auf:

Console

  1. Öffnen Sie die Dialogflow CX Console.
  2. Wählen Sie Ihr Google Cloud-Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie auf Agent-Einstellungen.
  5. Aktualisieren Sie die Einstellungen nach Bedarf.
  6. Klicken Sie auf Speichern.

API

Siehe die Methoden get und patch/update für den Typ Agent.

Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:

Protokoll V3 V3beta1
REST Kundenservicemitarbeiter-Ressource Kundenservicemitarbeiter-Ressource
RPC Kundenservicemitarbeiter-Oberfläche Kundenservicemitarbeiter-Oberfläche
C++ AgentsClient Nicht verfügbar
C# AgentsClient Nicht verfügbar
Go AgentsClient Nicht verfügbar
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Nicht verfügbar Nicht verfügbar
Python AgentsClient AgentsClient
Ruby Nicht verfügbar Nicht verfügbar

In folgenden Unterabschnitten werden die verschiedenen Kategorien der Agent-Einstellungen beschrieben.

Allgemeine Einstellungen

Für Agents sind folgende allgemeine Einstellungen verfügbar:

  • Anzeigename

    Ein für Menschen lesbarer Name für Ihren Agent.

  • Zeitzone

    Die Standardzeitzone für den Agent.

  • Standardsprache

    Die von Ihrem Agent unterstützte Standardsprache. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie haben jedoch folgende Möglichkeiten:

    1. Exportieren Sie den Agenten im JSON-Format.
    2. Entpacken Sie die heruntergeladene Datei.
    3. Suchen Sie die Datei agent.json.
    4. Aktualisieren Sie die Felder defaultLanguageCode und supportedLanguageCodes mit den gewünschten Werten.
    5. Stellen Sie den Kundenservicemitarbeiter auf denselben oder einen anderen Kundenservicemitarbeiter aus Schritt 1 wieder her.
    6. Aktualisieren Sie nach Bedarf sprachspezifische Trainingsphrasen und Entitätswerte.
  • Kundenservicemitarbeiter sperren

    • Agent sperren

      Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.

  • Protokollierungseinstellungen

    • Cloud Logging aktivieren

      Gibt an, ob Cloud Logging für den Agent aktiviert ist.

    • Interaktions-Logging aktivieren

      Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.

    • Einwilligungsbasierte Entfernung von Endnutzereingaben aktivieren

      Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Eingaben und Parameter von Endnutzern aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Der Sitzungsparameter ist standardmäßig true. Wenn diese Einstellung deaktiviert ist, werden keine Daten entfernt.

      Die Nutzereinwilligung wird mit einem booleschen Sitzungsparameter erfasst: $session.params.conversation-redaction. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf false gesetzt ist, erfolgt keine Entfernung. Andere Redigierungsstrategien gelten weiterhin. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf true festgelegt ist, werden Daten entfernt.

      Ein Beispiel für die Einwilligungsanfrage könnte so aussehen: Sie fragen den Nutzer zuerst, ob er die Eingabe des Endnutzers beibehalten möchte, und ordnen die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in fulfillment auf false (keine Streichung) und in den Parametervoreinstellungen der Route „no intent“ auf true (Streichung erfolgt) fest.

  • BigQuery Export

    • BigQuery Export aktivieren

      Gibt an, ob der BigQuery-Export aktiviert ist.

    • BigQuery-Dataset

      Der Name des BigQuery-Datasets.

    • BigQuery-Tabelle

      Der Name der BigQuery-Tabelle.

  • Intent-Vorschläge

    Sie können Intent-Vorschläge aktivieren.

  • Benutzerdefinierte Nutzlastvorlage

    In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.

ML-Einstellungen

Conversational Agents (Dialogflow CX) nutzen Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Conversational Agents (Dialogflow CX) lernt aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Conversational Agents (Dialogflow CX) integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen. Das von Conversational Agents (Dialogflow CX) erstellte Modell ist für jeden Ablauf einmalig.

Die folgenden Agent-weiten ML-Einstellungen sind verfügbar:

  • ML zulassen, um die Rechtschreibung zu korrigieren

    Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.

    Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.

    Warnungen und Best Practices:

    • Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
    • Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
    • Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
    • Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.

Die folgenden ablaufspezifischen ML-Einstellungen sind verfügbar:

  • NLU-Typ

    Dies kann einer der folgenden sein:

  • Auto-Training

    Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.

  • Klassifizierungsschwellenwert

    Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.

    Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.

    Sie können für jeden Ablauf in jeder für den Bot aktivierten Sprache einen separaten Klassifizierungsgrenzwert festlegen. So können wir verschiedene Sprachen berücksichtigen, die bei unterschiedlichen Klassifizierungsschwellenwerten die beste Leistung erzielen. Weitere Informationen zum Erstellen eines mehrsprachigen Kundenservicemitarbeiters finden Sie in der Dokumentation zu mehrsprachigen Kundenservicemitarbeitern.

  • Trainingsstatus

    Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.

  • NLU trainieren

    Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.

Einstellungen für generative KI

Folgende Einstellungen für die generative KI sind verfügbar:

  • Allgemein

    • Verbotene Wortgruppen

      Liste der für generative KI verbotenen Begriffe. Wenn eine verbotene Wortgruppe im Prompt oder in der generierten Antwort erscheint, schlägt die Generierung fehl.

    • Sicherheitsfilter

      Konfigurieren Sie die Empfindlichkeitsstufen der Sicherheitsfilter für die verschiedenen Kategorien der verantwortungsbewussten Anwendung von KI (Responsible AI, RAI). Die Inhalte werden anhand der folgenden vier Kategorien bewertet:

      Kategorie Beschreibung
      Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind
      Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten
      Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte
      Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind

      Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Sie können die Empfindlichkeit für jede Kategorie anpassen, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, die RAI-Prüfungen für die Kategorie deaktiviert, nachdem Sie einen Antrag auf Risikobestätigung für Ihr Projekt eingereicht und eine Genehmigung erhalten haben.

      Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.

    • Sofortige Sicherheit

      Sie können die Einstellung Sofortigen Sicherheitscheck aktivieren aktivieren, um sofortige Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können dazu verwendet werden, Teile des Prompts für den Kundenservicemitarbeiter zu enthüllen oder Antworten zu liefern, die der Kundenservicemitarbeiter nicht liefern soll. Dazu wird eine zusätzliche LLM-Aufforderung gesendet, die prüft, ob die Nutzerabfrage möglicherweise schädlich ist.

  • Generativer Agent

    • Auswahl des generativen Modells

      Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.

    • Abgeschnittener Playbook-Kontext

      Bei der Kürzung des Playbook-Kontexts werden einige vergangene Antworten aus dem Playbook-Prompt entfernt, damit die Prompt-Größe nicht mit jeder sequenziellen Antwort wächst, die vom Playbook verarbeitet wird. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Prompt-Größe begrenzen.

      Normalerweise wird jede nachfolgende Runde ohne Kürzung an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Wendung größer wird. Je mehr des Prompts vom Konversationsverlauf belegt wird, desto weniger kann für Few-Shot-Beispiele verwendet werden. Diese werden daher möglicherweise entfernt. Möglicherweise wird dadurch auch das aktuelle Tokenlimit überschritten. Sie können die Tokengrößen erhöhen, um dies zu berücksichtigen. Beachten Sie jedoch, dass sich eine größere Promptgröße auch auf die LLM-Antwortlatenz auswirkt.

      Mit der Kürzung des Playbook-Kontexts können Sie einen Prozentsatz des Tokenbudgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsbeiträge werden in der Reihenfolge der letzten Beiträge gespeichert. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der gewählten Einstellung werden mindestens zwei Gesprächsbeiträge in der Reihenfolge der letzten Beiträge aufbewahrt.

      Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.

      Wichtig:Wenn Sie den Kontext kürzen, gehen möglicherweise einige Parameter versehentlich verloren, wenn sie zu den aussortierten Antworten gehören. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.

      Das Token-Eingabebudget wird auch für Folgendes verwendet:

      • Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
      • Playbook-Anleitungen und -Ziele: Alle von Ihnen verfassten Anleitungen und Ziele werden dem Prompt vollständig hinzugefügt.
      • Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (standardmäßig) oder durch einen von Ihnen ausgewählten Algorithmus (z. B. die Best-Match-Sortierung mit regulären Ausdrücken) hinzugefügt. Beispiele werden nach Einschluss aller anderen Elemente so ausgewählt, dass sie in das Budget für Eingabetokens passen.
      • Der Konversationsverlauf besteht aus Nutzer- und Kundenservicemitarbeiteräußerungen, Ablauf- und Playbook-Übergangskontext, Toolaufrufen und -ausgaben in derselben Sitzung aus allen vorherigen Gesprächsrunden, die vom aktuellen Playbook nacheinander verarbeitet werden.
  • Generativer Fallback

  • Datenspeicher

    Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.

Einstellungen für Sprache und IVR

Die folgenden Einstellungen für Sprache und IVR sind verfügbar:

  • Text-to-Speech

    • Sprachauswahl

      Sie können die Sprache und die Stimme für die Sprachsynthese auswählen.

      Sie können Benutzerdefinierte Stimme für Ihren Kundenservicemitarbeiter aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ aus dem Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme in das entsprechende Feld eingeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Wenn Sie ein Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow-Dienst-Agent service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein.
      • Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Konversationsagenten (Dialogflow CX) aufgerufen werden, die Rolle „AutoML Predictor“ in Ihrem Custom Voice-Projekt zugewiesen ist.
  • Speech-to-Text

DTMF

Weitere Informationen finden Sie unter DTMF für Telefonieintegrationen.

Multimodal

Weitere Informationen finden Sie unter Anrufassistent.

Freigabeeinstellungen

Weitere Informationen finden sich unter Zugriffssteuerung.

Spracheinstellungen

Fügen Sie Ihrem Agent zusätzliche Sprachunterstützung hinzu. Eine vollständige Liste der Sprachen finden Sie in der Sprachreferenz.

Automatische Spracherkennung

Wenn Sie die automatische Spracherkennung konfigurieren, erkennt Ihr Kundenservicemitarbeiter automatisch die Sprache des Endnutzers und wechselt zu dieser Sprache. Weitere Informationen finden Sie in der Dokumentation zur automatischen Spracherkennung.

Sicherheitseinstellungen

Weitere Informationen finden Sie unter Sicherheitseinstellungen.

Erweiterte Einstellungen

Derzeit ist die einzige erweiterte Einstellung für die Sentimentanalyse.

Einstellungen für die Agent Builder-Konsole

In diesem Abschnitt werden die Einstellungen beschrieben, die für Kundenservicemitarbeiter-Apps verfügbar sind.

Allgemein

Für Agenten-Apps sind folgende allgemeine Einstellungen verfügbar:

  • Anzeigename

    Ein für Menschen lesbarer Name für Ihre Kundenservicemitarbeiter-App.

  • Standort

    Die Region der Agent-App.

  • App-Sperre

    Wenn diese Option aktiviert ist, sind Änderungen an der Kundenservicemitarbeiter-App nicht zulässig.

Logging

Für Kundenservice-Apps sind die folgenden Protokollierungseinstellungen verfügbar:

  • Cloud Logging aktivieren

    Wenn diese Option aktiviert ist, werden Logs an Cloud Logging gesendet.

  • Unterhaltungsverlauf aktivieren

    Wenn diese Option aktiviert ist, ist der Unterhaltungsverlauf verfügbar. Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen. Diese Einstellung hat keinen Einfluss darauf, ob der Unterhaltungsverlauf zum Generieren von Antworten von Kundenservicemitarbeitern verwendet wird.

  • BigQuery Export aktivieren

    Wenn diese Option aktiviert ist, wird der Unterhaltungsverlauf nach BigQuery exportiert. Außerdem muss die Einstellung Unterhaltungsverlauf aktivieren aktiviert sein.

GenAI

Für Kundenservice-Apps sind die folgenden Einstellungen für die generative KI verfügbar:

  • Auswahl des generativen Modells

    Wählen Sie das generative Modell aus, das Kundenservicemitarbeiter standardmäßig verwenden sollen.

  • Limit für Eingabetoken

    Wählen Sie das Eingabetokenlimit für das generative Modell aus. Das ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modelleingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, die Modelleingabegröße kann aber größer sein.

  • Tokenausgabelimit

    Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Das ist die maximale Tokengröße für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Größe der Modellausgabe ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, die Modellausgabe kann aber größer sein.

  • Temperatur

    Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.

  • Verbotene Wortgruppen

    Liste der für generative KI verbotenen Begriffe. Wenn eine verbotene Wortgruppe in der Aufforderung oder in der generierten Antwort erscheint, gibt der Bot stattdessen eine Fallback-Antwort zurück.

  • Sicherheitsfilter

    Konfigurieren Sie die Empfindlichkeitsstufen der Sicherheitsfilter für die verschiedenen Kategorien der verantwortungsbewussten Anwendung von KI (Responsible AI, RAI). Die Inhalte werden anhand der folgenden vier Kategorien bewertet:

    Kategorie Beschreibung
    Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind
    Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten
    Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte
    Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind

    Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Sie können die Einstellung für die Sensibilität anpassen, indem Sie für jede Kategorie eine der folgenden Optionen auswählen: Wenige blockieren (nur Fälle mit hoher Wahrscheinlichkeit schädlicher Inhalte blockieren), Einige blockieren (Fälle mit mittlerer und hoher Wahrscheinlichkeit) und Die meisten blockieren (niedrige, mittlere und hohe Wahrscheinlichkeit). Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der RAI-Prüfungen für die Kategorie deaktiviert werden, nachdem Sie einen Antrag auf Risikobestätigung für Ihr Projekt eingereicht und eine Genehmigung erhalten haben.

    Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.

  • Sofortige Sicherheit

    Sie können die Einstellung Sofortigen Sicherheitscheck aktivieren aktivieren, um sofortige Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können dazu verwendet werden, Teile des Prompts für den Kundenservicemitarbeiter zu enthüllen oder Antworten zu liefern, die der Kundenservicemitarbeiter nicht liefern soll. Dazu wird eine zusätzliche LLM-Aufforderung gesendet, die prüft, ob die Nutzerabfrage möglicherweise schädlich ist.

Git

Diese Einstellungen bieten eine Git-Integration. Folgen Sie der Anleitung, um die Integration zu konfigurieren.