Agent-Einstellungen

Agents haben viele Einstellungen, die sich auf ihr Verhalten auswirken. Jede Konsole bietet unterschiedliche Einstellungen.

Agent-Einstellungen in der Konsole für Konversations-Agenten

So rufen Sie Agent-Einstellungen auf:

Console

  1. Öffnen Sie die Konsole für Konversations-Agents.
  2. Wählen Sie Ihr Google Cloud Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie rechts oben auf das Symbol für die Einstellungen.
  5. Aktualisieren Sie die Einstellungen nach Bedarf.
  6. Klicken Sie auf Speichern.

API

Siehe die Methoden get und patch/update für den Typ Agent.

Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:

Protokoll V3 V3beta1
REST Agent-Ressource Agent-Ressource
RPC Agent-Oberfläche Agent-Oberfläche
C++ AgentsClient Nicht verfügbar
C# AgentsClient Nicht verfügbar
Go AgentsClient Nicht verfügbar
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Nicht verfügbar Nicht verfügbar
Python AgentsClient AgentsClient
Ruby Nicht verfügbar Nicht verfügbar

In folgenden Unterabschnitten werden die verschiedenen Kategorien der Agent-Einstellungen beschrieben.

Allgemeine Einstellungen

Für Agents sind folgende allgemeine Einstellungen verfügbar:

  • Anzeigename

    Ein für Menschen lesbarer Name für Ihren Agent.

  • Zeitzone

    Die Standardzeitzone für den Agent.

  • Gesprächsbeginn

    Diese Einstellung bestimmt, ob Ihr Agent die Unterhaltung mit einem generativen Playbook oder einem deterministischen Ablauf startet.

  • Standort des Kundenservicemitarbeiters

    Die Agent-Region, die Sie beim Erstellen des Agents ausgewählt haben.

  • Agent-Sperre

    • Agent sperren

      Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.

  • Einstellungen für die Protokollierung

    • Cloud Logging aktivieren

      Gibt an, ob Cloud Logging für den Agent aktiviert ist.

    • Unterhaltungsverlauf aktivieren

      Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.

    • Einwilligungsbasierte Schwärzung von Endnutzereingaben aktivieren

      Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Endnutzereingaben und Parameter aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Der Standardsitzungsparameter ist true. Wenn diese Einstellung deaktiviert ist, erfolgt keine Schwärzung.

      Die Nutzereinwilligung wird über einen booleschen Sitzungsparameter erfasst: $session.params.conversation-redaction. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf false gesetzt ist, erfolgt keine Schwärzung (andere Schwärzungsstrategien gelten weiterhin). Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf true festgelegt ist, werden Daten unkenntlich gemacht.

      Ein Beispiel für einen Ablauf zum Einholen der Einwilligung: Fragen Sie den Nutzer zuerst, ob er die Endnutzereingabe beibehalten möchte, und ordnen Sie die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in der Auftragsausführung auf false (keine Schwärzung) und in der Parametervoreinstellung der Route „no intent“ auf true (Schwärzung erfolgt) fest.

  • BigQuery Export

    • BigQuery Export aktivieren

      Gibt an, ob der BigQuery-Export aktiviert ist.

    • BigQuery-Dataset

      Der Name des BigQuery-Datasets.

    • BigQuery-Tabelle

      Der Name der BigQuery-Tabelle.

  • Vorschläge für Intents

    Sie können Intent-Vorschläge aktivieren.

  • Nutzerfeedback

    Sie können diese Einstellung aktivieren, um Feedback zur Qualität der Antworten des Agents zu geben, einschließlich „Gute Antwort“ / „Schlechte Antwort“.

  • Git-Integration

    Mit dieser Einstellung können Sie eine Git-Integration hinzufügen.

Einstellungen für generative KI

Die folgenden Einstellungen für generative KI sind verfügbar:

  • Allgemein

    • Auswahl des generativen Modells

      Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.

    • Token limits

      • Eingabetoken-Limit

        Wählen Sie das Eingabetokenlimit für das generative Modell aus. Dies ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modell-Eingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Eingabegröße des Modells kann größer sein.

      • Tokenausgabelimit

        Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Dies ist die maximale Token-Größe für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Kleinere Token-Limits haben eine geringere Latenz, aber die Ausgabegröße des Modells ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Ausgabegröße des Modells kann größer sein.

    • Temperatur

      Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.

    • Kontexttoken-Limits

      Mit dieser Einstellung werden einige vergangene Turns aus dem LLM-Prompt entfernt, damit die Prompt-Größe nicht mit jedem sequenziellen Turn, der vom Agent bearbeitet wird, wächst. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Promptgröße eindämmen.

      Normalerweise wird ohne Kürzung jede nachfolgende Runde an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Antwort größer wird. Je mehr des Prompts vom Unterhaltungsverlauf eingenommen wird, desto weniger des Prompts kann für Few-Shot-Beispiele verwendet werden. Diese werden dann möglicherweise ausgelassen. Außerdem kann es sein, dass der Prompt die aktuellen Tokenlimits überschreitet. Sie können die Token-Größen erhöhen, um dem Rechnung zu tragen. Beachten Sie jedoch, dass größere Prompts auch die Antwortlatenz des LLM erhöhen.

      Mit der Kontextkürzung können Sie einen Prozentsatz des Token-Budgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsrunden werden in der Reihenfolge vom neuesten zum ältesten Eintrag aufbewahrt. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der gewählten Einstellung werden mindestens zwei Gesprächsrunden beibehalten, und zwar in der Reihenfolge von der neuesten zur ältesten.

      Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.

      Wenn der Kontext gekürzt wird, können einige Parameter versehentlich verloren gehen, wenn sie Teil der entfernten Turns sind. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.

      Das Token-Eingabebudget wird auch für Folgendes verwendet:

      • Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
      • Playbook-Anweisungen und ‑Ziele: Alle Anweisungen und Ziele, die Sie eingeben, werden vollständig in den Prompt aufgenommen.
      • Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (Standard) oder nach einem von Ihnen ausgewählten Algorithmus (z. B. Sortierung nach bester Übereinstimmung mit regulären Ausdrücken) hinzugefügt. Beispiele werden gekürzt, um das Budget für Eingabetokens einzuhalten, nachdem alle anderen Elemente berücksichtigt wurden.
      • Der Unterhaltungsverlauf besteht aus Äußerungen von Nutzern und Agenten, dem Kontext für Ablauf- und Playbook-Übergänge, Tool-Aufrufen und Ausgaben in derselben Sitzung aus allen vorherigen Runden, die sequenziell vom aktuellen Playbook verarbeitet wurden.
    • Verbotene Wortgruppen

      Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe in der Eingabeaufforderung oder der generierten Antwort vorkommt, schlägt die Generierung fehl. Die Liste der verbotenen Begriffe wirkt sich auf jede Anfrage und jeden LLM-Aufruf aus und erhöht die Latenz.

    • Sicherheitsfilter

      Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:

      Kategorie Beschreibung
      Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind
      Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und/oder Aktivitäten
      Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen und/oder andere vulgäre Inhalte
      Belästigung Böswillige, einschüchternde, mobbende und/oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind

      Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Empfindlichkeitsstufe kann für jede Kategorie angepasst werden, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.

      Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.

    • Promptsicherheit

      Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts offenzulegen oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.

    • Generativer Fallback

  • Datenspeicher

    Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.

Deterministische Abläufe

Diese Einstellungen gelten für alle Abläufe in diesem Agent, mit Ausnahme der ML-Einstellungen, die pro Ablauf angewendet werden. Wenn Sie andere flussbezogene Einstellungen bearbeiten möchten, rufen Sie den Fluss in der Konsole auf und bearbeiten Sie die Einstellungen dort.

  • Absichtstraining

    Flows nutzt Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Flows lernen aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Flows integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen.

    Folgende Einstellungen für das Intentionstraining sind verfügbar:

    • Rechtschreibkorrektur

      Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.

      Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.

      Warnungen und Best Practices:

      • Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
      • Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
      • Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
      • Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.
    • Ablaufspezifische ML-Einstellungen

      • NLU-Typ

        Dies kann einer der folgenden sein:

      • Auto-Training

        Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.

      • Klassifizierungsschwellenwert

        Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.

        Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.

        Sie können für jeden Ablauf in jeder für den Agent aktivierten Sprache einen separaten Klassifizierungsschwellenwert festlegen. So wird berücksichtigt, dass verschiedene Sprachen bei unterschiedlichen Klassifizierungsschwellenwerten am besten funktionieren. Weitere Informationen zum Erstellen eines mehrsprachigen Agents finden Sie in der Dokumentation zu mehrsprachigen Agents.

      • Trainingsstatus

        Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.

      • Trainieren

        Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.

    • Sprache

      Die von Ihrem Agent unterstützten Sprachen. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie können jedoch Folgendes tun:

      1. Exportieren Sie Ihren Agent in das JSON-Format.
      2. Extrahieren Sie die heruntergeladene Datei.
      3. Suchen Sie nach der Datei agent.json.
      4. Aktualisieren Sie die Felder defaultLanguageCode und supportedLanguageCodes mit den gewünschten Werten.
      5. Stellen Sie den Agenten wieder her. Sie können ihn im selben oder in einem anderen Agenten wiederherstellen, den Sie in Schritt 1 erstellt haben.
      6. Aktualisieren Sie sprachspezifische Trainingsformulierungen und Entitätswerte nach Bedarf.

      Sie können auch die automatische Spracherkennung und den automatischen Sprachwechsel aktivieren.

Verbindung

  • Benutzerdefinierte Nutzlastvorlage

    In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.

  • Parameter definition

    Geben Sie deutlich an, welche Parameter aus den Sitzungsparametern an den Webhook gesendet werden und welche Sitzungsparameter durch die Antwort des Webhooks festgelegt werden können.

  • Clientzertifikateinstellungen

    Zum Hochladen von SSL-Zertifikaten.

Sprache und IVR

  • Sprachoptionen

    • Text-to-Speech

      • Sprachauswahl

        Sie können die Sprache und Stimme für die Sprachsynthese auswählen.

        Sie können Benutzerdefinierte Stimme für Ihren Agent aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ im Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme im entsprechenden Feld angeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

        Sie können auch Stimmklonierung verwenden.

        • Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein.
        • Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Conversational Agents (Dialogflow CX) aufgerufen wird, in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen ist.
      • Tonhöhe

        Steuert die relative Höhe oder Tiefe des Sprechtons.

      • Sprechgeschwindigkeit

        Steuert die Sprechgeschwindigkeit der Stimme.

      • Aussprache

        Mit diesen Einstellungen können Sie dem Agenten die Aussprache bestimmter Formulierungen mithilfe der X-SAMPA-Lautschrift mitteilen.

    • Speech-to-Text

  • Anruf-Companion

    Weitere Informationen finden Sie unter Call Companion.

UI-Einstellungen

Mit diesen Einstellungen können Sie die Benutzeroberflächen von Messenger und Call Companion anpassen.

Sicherheit

Weitere Informationen finden Sie unter Sicherheitseinstellungen und Zugriffssteuerung.

Dialogflow CX Console – Agent-Einstellungen

So rufen Sie Agent-Einstellungen auf:

Console

  1. Öffnen Sie die Konsole.
  2. Wählen Sie Ihr Google Cloud Projekt aus.
  3. Wählen Sie den Agent aus.
  4. Klicken Sie auf Agent-Einstellungen.
  5. Aktualisieren Sie die Einstellungen nach Bedarf.
  6. Klicken Sie auf Speichern.

API

Siehe die Methoden get und patch/update für den Typ Agent.

Wählen Sie ein Protokoll und eine Version für die Agent-Referenz aus:

Protokoll V3 V3beta1
REST Agent-Ressource Agent-Ressource
RPC Agent-Oberfläche Agent-Oberfläche
C++ AgentsClient Nicht verfügbar
C# AgentsClient Nicht verfügbar
Go AgentsClient Nicht verfügbar
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Nicht verfügbar Nicht verfügbar
Python AgentsClient AgentsClient
Ruby Nicht verfügbar Nicht verfügbar

Allgemeine Einstellungen

Für Agents sind folgende allgemeine Einstellungen verfügbar:

  • Anzeigename

    Ein für Menschen lesbarer Name für Ihren Agent.

  • Zeitzone

    Die Standardzeitzone für den Agent.

  • Standardsprache

    Die von Ihrem Agent unterstützte Standardsprache. Nachdem ein Agent erstellt wurde, kann die Standardsprache nicht mehr geändert werden. Sie können jedoch Folgendes tun:

    1. Exportieren Sie Ihren Agent in das JSON-Format.
    2. Entpacken Sie die heruntergeladene Datei.
    3. Suchen Sie nach der Datei agent.json.
    4. Aktualisieren Sie die Felder defaultLanguageCode und supportedLanguageCodes mit den gewünschten Werten.
    5. Stellen Sie den Agenten wieder her. Sie können ihn im selben oder in einem anderen Agenten wiederherstellen, den Sie in Schritt 1 erstellt haben.
    6. Aktualisieren Sie sprachspezifische Trainingsformulierungen und Entitätswerte nach Bedarf.
  • Agent-Sperre

    • Agent sperren

      Gibt an, ob der Agent gesperrt ist. Ein gesperrter Agent kann nicht bearbeitet werden.

  • Einstellungen für die Protokollierung

    • Cloud Logging aktivieren

      Gibt an, ob Cloud Logging für den Agent aktiviert ist.

    • Interaktions-Logging aktivieren

      Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen.

    • Einwilligungsbasierte Schwärzung von Endnutzereingaben aktivieren

      Wenn diese Einstellung aktiviert ist, können Sie mit einem speziellen Sitzungsparameter steuern, ob Endnutzereingaben und Parameter standardmäßig aus dem Unterhaltungsverlauf und Cloud Logging entfernt werden. Der Sitzungsparameter ist standardmäßig true. Wenn diese Einstellung deaktiviert ist, erfolgt keine Schwärzung.

      Die Nutzereinwilligung wird über einen booleschen Sitzungsparameter erfasst: $session.params.conversation-redaction. Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf false gesetzt ist, erfolgt keine Schwärzung (andere Schwärzungsstrategien gelten weiterhin). Wenn diese Einstellung aktiviert ist und der Sitzungsparameter auf true festgelegt ist, werden Daten unkenntlich gemacht.

      Ein Beispiel für einen Ablauf zum Einholen der Einwilligung: Fragen Sie den Nutzer zuerst, ob er die Endnutzereingabe beibehalten möchte, und ordnen Sie die Antwort zwei Intents zu, einem „Ja-Intent“ und einem „Nein-Intent“. Legen Sie dann den Sitzungsparameter in den Parametervoreinstellungen der Route „yes intent“ in der Auftragsausführung auf false (keine Schwärzung) und in der Parametervoreinstellung der Route „no intent“ auf true (Schwärzung erfolgt) fest.

  • BigQuery-Export

    • BigQuery Export aktivieren

      Gibt an, ob der BigQuery-Export aktiviert ist.

    • BigQuery-Dataset

      Der Name des BigQuery-Datasets.

    • BigQuery-Tabelle

      Der Name der BigQuery-Tabelle.

  • Vorschläge für Intents

    Sie können Intent-Vorschläge aktivieren.

  • Benutzerdefinierte Nutzlastvorlage

    In diesem Abschnitt können Sie Beschreibungen und Nutzlasten für benutzerdefinierte Nutzlastvorlagen erstellen.

ML-Einstellungen

Konversations-Agents (Dialogflow CX) verwenden Algorithmen des maschinellen Lernens (ML), um Eingaben von Endnutzern zu verstehen, sie mit Intents abzugleichen und strukturierte Daten zu extrahieren. Konversations-Agents (Dialogflow CX) lernen aus den von Ihnen bereitgestellten Trainingsformulierungen und aus den in Konversations-Agents (Dialogflow CX) integrierten Sprachmodellen. Anhand dieser Daten wird ein Modell erstellt, um zu entscheiden, welcher Intent der Eingabe eines Endnutzers zugeordnet werden soll. Sie können für jeden Ablauf eines Agents eigene ML-Einstellungen nutzen. Das von Conversational Agents (Dialogflow CX) erstellte Modell ist für jeden Ablauf einmalig.

Die folgenden Agent-weiten ML-Einstellungen sind verfügbar:

  • ML zulassen, um die Rechtschreibung zu korrigieren

    Wenn diese Option aktiviert ist und eine Nutzereingabe einen Rechtschreib- oder Grammatikfehler enthält, wird für den Intent-Abgleich die korrekte Rechtschreibung verwendet. Die Antwort für die Intent-Erkennung enthält die korrigierte Nutzereingabe. Beispiel: Gibt ein Endnutzer "Ich möchte einen Appfel" ein, so wird dies so verarbeitet, als ob er "Ich möchte einen Apfel" eingegeben hätte. Dies gilt auch für den Abgleich mit Systementitäten und benutzerdefinierten Entitäten.

    Die Rechtschreibkorrektur ist auf Deutsch, Englisch, Französisch, Spanisch und Italienisch verfügbar. Sie ist in allen Regionen für Conversational Agents (Dialogflow CX) verfügbar.

    Warnungen und Best Practices:

    • Mit der Rechtschreibkorrektur können keine ASR-Fehler (Automated Speech Recognition, automatische Spracherkennung) korrigiert werden. Bei Verwendung von ASR-Eingaben sollte daher die Rechtschreibkorrektur deaktiviert sein.
    • Eine korrigierte Eingabe kann mit dem falschen Intent übereinstimmen. Sie können dies beheben, indem Sie häufig nicht übereinstimmende Wortgruppen als Negativbeispiele hinzufügen.
    • Durch die Rechtschreibkorrektur verlängert sich die Antwortzeit des Agents geringfügig.
    • Wenn ein Agent mit domainspezifischem Jargon definiert wird, sind die Korrekturen möglicherweise unerwünscht.

Die folgenden ablaufspezifischen ML-Einstellungen sind verfügbar:

  • NLU-Typ

    Dies kann einer der folgenden sein:

  • Auto-Training

    Wenn diese Option aktiviert ist, wird der Ablauf bei jeder Aktualisierung über die Konsole trainiert. Bei großen Abläufen kann dies zur verzögerten Reaktion der Benutzeroberfläche der Konsole führen. Deshalb sollten Sie diese Einstellung deaktivieren und bei Bedarf für große Abläufe manuell trainieren.

  • Wenn Sie Falsch-Positiv-Ergebnisse herausfiltern und den Agent trotzdem mit einer vielfältigen natürlichen Sprache trainieren möchten, können Sie den Klassifizierungsschwellenwert für maschinelles Lernen einstellen. Mit dieser Einstellung legen Sie fest, welche Intent-Erkennungskonfidenz für eine Intent-Übereinstimmung mindestens erforderlich ist.

    Wenn der Konfidenzwert für eine Intent-Übereinstimmung unter dem Schwellenwert liegt, wird ein No-Match-Ereignis ausgelöst.

    Sie können für jeden Ablauf in jeder für den Agent aktivierten Sprache einen separaten Klassifizierungsschwellenwert festlegen. So wird berücksichtigt, dass verschiedene Sprachen bei unterschiedlichen Klassifizierungsschwellenwerten am besten funktionieren. Weitere Informationen zum Erstellen eines mehrsprachigen Agents finden Sie in der Dokumentation zu mehrsprachigen Agents.

  • Trainingsstatus

    Gibt an, ob der Ablauf seit der letzten Aktualisierung der Ablaufdaten trainiert wurde.

  • NLU trainieren

    Mit dieser Schaltfläche können Sie den Ablauf manuell trainieren.

Einstellungen für generative KI

Die folgenden Einstellungen für generative KI sind verfügbar:

  • Allgemein

    • Verbotene Wortgruppen

      Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe in der Eingabeaufforderung oder der generierten Antwort vorkommt, schlägt die Generierung fehl.

    • Sicherheitsfilter

      Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:

      Kategorie Beschreibung
      Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind
      Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten
      Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte
      Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind

      Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Empfindlichkeitsstufe kann für jede Kategorie angepasst werden, indem Sie eine der Optionen Wenige blockieren, Einige blockieren und Meiste blockieren auswählen. Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.

      Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.

    • Prompt-Sicherheit

      Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts preiszugeben oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.

  • Generativer Agent

    • Auswahl des generativen Modells

      Wählen Sie das Modell aus, das von generativen Funktionen verwendet wird. Weitere Informationen finden Sie unter Modellversionen.

    • Kürzung des Playbook-Kontexts

      Bei der Kürzung des Playbook-Kontexts werden einige vergangene Züge aus dem Playbook-Prompt entfernt, damit die Prompt-Größe nicht mit jedem sequenziellen Zug wächst, der vom Playbook verarbeitet wird. Mit dieser Funktion lässt sich das unerwünschte Wachstum der Promptgröße eindämmen.

      Normalerweise wird ohne Kürzung jede nachfolgende Runde an den „Unterhaltungsverlauf“ des LLM-Prompts angehängt, unabhängig davon, ob sie für die aktuelle Runde relevant ist. Das kann dazu führen, dass der Prompt mit jeder Antwort größer wird. Je mehr des Prompts vom Unterhaltungsverlauf eingenommen wird, desto weniger des Prompts kann für Few-Shot-Beispiele verwendet werden. Diese werden dann möglicherweise ausgelassen. Außerdem kann es sein, dass der Prompt die aktuellen Tokenlimits überschreitet. Sie können die Token-Größen erhöhen, um dem Rechnung zu tragen. Beachten Sie jedoch, dass größere Prompts auch die Antwortlatenz des LLM erhöhen.

      Mit der Kürzung des Playbook-Kontexts können Sie einen Prozentsatz des Token-Budgets festlegen, der maximal für den Unterhaltungsverlauf reserviert werden soll. Die Gesprächsrunden werden in der Reihenfolge vom neuesten zum ältesten Eintrag aufbewahrt. Mit dieser Einstellung können Sie verhindern, dass Tokenlimits überschritten werden. Unabhängig von der gewählten Einstellung werden mindestens zwei Gesprächsrunden beibehalten, und zwar in der Reihenfolge von der neuesten zur ältesten.

      Sie müssen zuerst ein Tokenlimit festlegen, bevor Sie diese Einstellung ändern können.

      Wichtig:Wenn der Kontext gekürzt wird, gehen möglicherweise einige Parameter versehentlich verloren, wenn sie Teil der entfernten Turns sind. Prüfen Sie die Playbook-Interaktionen sorgfältig, nachdem Sie diese Option aktiviert haben.

      Das Token-Eingabebudget wird auch für Folgendes verwendet:

      • Systemanweisungen und Beispiele: Werden dem Prompt automatisch hinzugefügt. Dieses Verhalten kann nicht geändert werden.
      • Playbook-Anweisungen und ‑Ziele: Alle Anweisungen und Ziele, die Sie eingeben, werden vollständig in den Prompt aufgenommen.
      • Few-Shot-Beispiele für Playbooks: Sie werden entweder in der Reihenfolge (Standard) oder nach einem von Ihnen ausgewählten Algorithmus (z. B. Sortierung nach bester Übereinstimmung mit regulären Ausdrücken) hinzugefügt. Beispiele werden gekürzt, um das Budget für Eingabetokens einzuhalten, nachdem alle anderen Elemente berücksichtigt wurden.
      • Der Unterhaltungsverlauf besteht aus Äußerungen von Nutzern und Agenten, dem Kontext für Ablauf- und Playbook-Übergänge, Tool-Aufrufen und Ausgaben in derselben Sitzung aus allen vorherigen Runden, die sequenziell vom aktuellen Playbook verarbeitet wurden.
  • Generativer Fallback

  • Datenspeicher

    Weitere Informationen finden Sie unter Agent-Einstellungen für Datenspeicher.

Einstellungen für Sprache und IVR

Folgende Einstellungen für Sprache und IVR sind verfügbar:

  • Text-to-Speech

    • Stimm- und Sprachauswahl

      Sie können die Sprache und Stimme für die Sprachsynthese auswählen.

      Sie können Benutzerdefinierte Stimme für Ihren Agent aktivieren, indem Sie die Option „Benutzerdefinierte Stimme“ im Drop-down-Menü für die Sprachauswahl auswählen und den Namen der benutzerdefinierten Stimme im entsprechenden Feld angeben. Der Name der benutzerdefinierten Stimme muss dem folgenden Muster entsprechen: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Wenn Sie das Telefonie-Gateway verwenden, muss dem Dienstkonto Dialogflow Service Agent service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen sein.
      • Achten Sie bei regulären API-Aufrufen darauf, dass dem Dienstkonto, mit dem Conversational Agents (Dialogflow CX) aufgerufen wird, in Ihrem Custom Voice-Projekt die Rolle „AutoML Predictor“ zugewiesen ist.
  • Speech-to-Text

DTMF

Weitere Informationen finden Sie unter DTMF für Telefonieintegrationen.

Multimodal

Weitere Informationen finden Sie unter Call Companion.

Freigabeeinstellungen

Weitere Informationen finden sich unter Zugriffssteuerung.

Spracheinstellungen

Fügen Sie Ihrem Agent zusätzliche Sprachunterstützung hinzu. Eine vollständige Liste der Sprachen finden Sie in der Sprachreferenz.

Automatische Spracherkennung

Wenn Sie die automatische Spracherkennung konfigurieren, erkennt Ihr Chatbot automatisch die Sprache des Endnutzers und wechselt zu dieser Sprache. Weitere Informationen finden Sie in der Dokumentation zur automatischen Spracherkennung.

Sicherheitseinstellungen

Weitere Informationen finden Sie unter Sicherheitseinstellungen.

Erweiterte Einstellungen

Derzeit ist die einzige erweiterte Einstellung für die Sentimentanalyse.

Konsoleneinstellungen für AI Applications

In diesem Abschnitt werden die Einstellungen beschrieben, die für Agent-Apps verfügbar sind.

Allgemein

Für Agent-Apps sind folgende allgemeine Einstellungen verfügbar:

  • Anzeigename

    Ein für Menschen lesbarer Name für Ihre Agent-App.

  • Standort

    Die Region der Agent-App.

  • App-Sperre

    Wenn diese Option aktiviert ist, sind keine Änderungen an der Agent-App zulässig.

Logging

Die folgenden Logging-Einstellungen sind für Agent-Apps verfügbar:

  • Cloud Logging aktivieren

    Wenn diese Option aktiviert ist, werden Logs an Cloud Logging gesendet.

  • Chatverlauf aktivieren

    Wenn diese Option aktiviert ist, ist der Unterhaltungsverlauf verfügbar. Gibt an, ob Google Abfragen entfernen soll, um Qualitätsverbesserungen vorzunehmen. Diese Einstellung hat keinen Einfluss darauf, ob der Unterhaltungsverlauf zum Generieren von Agent-Antworten verwendet wird.

  • BigQuery Export aktivieren

    Wenn diese Option aktiviert ist, wird der Unterhaltungsverlauf nach BigQuery exportiert. Die Einstellung Chatprotokoll aktivieren muss ebenfalls aktiviert sein.

GenAI

Die folgenden Einstellungen für generative KI sind für Agent-Apps verfügbar:

  • Generatives Modell auswählen

    Wählen Sie das generative Modell aus, das Agents standardmäßig verwenden sollen.

  • Eingabetokenlimit

    Wählen Sie das Eingabetokenlimit für das generative Modell aus. Dies ist die maximale Tokengröße für die an das Modell gesendeten Eingaben. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Bei kleineren Tokenlimits ist die Latenz geringer, aber die Modell-Eingabegröße ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Eingabegröße des Modells kann größer sein.

  • Tokenausgabelimit

    Wählen Sie das Ausgabetokenlimit für das generative Modell aus. Dies ist die maximale Token-Größe für die vom Modell empfangene Ausgabe. Je nach Modell kann ein Token zwischen einem Zeichen und einem Wort liegen. Kleinere Token-Limits haben eine geringere Latenz, aber die Ausgabegröße des Modells ist begrenzt. Bei größeren Tokenlimits ist die Latenz höher, aber die Ausgabegröße des Modells kann größer sein.

  • Temperatur

    Mit der Temperatur für ein LLM können Sie steuern, wie kreativ die Antworten sind. Ein niedriger Wert führt zu vorhersehbareren Antworten. Ein hoher Wert führt zu kreativeren oder zufälligeren Antworten.

  • Verbotene Wortgruppen

    Liste der Begriffe, die für generative KI verboten sind. Wenn eine verbotene Wortgruppe im Prompt oder in der generierten Antwort vorkommt, gibt der Agent stattdessen eine Fallback-Antwort zurück.

  • Sicherheitsfilter

    Sie können die Empfindlichkeitsstufen von Sicherheitsfiltern in Bezug auf verschiedene RAI-Kategorien (Verantwortungsbewusste Anwendung von KI) konfigurieren. Inhalte werden anhand der folgenden vier Kategorien bewertet:

    Kategorie Beschreibung
    Hassrede Negative oder schädliche Kommentare, die auf Identität und/oder geschützte Merkmale ausgerichtet sind
    Gefährliche Inhalte Fördert oder ermöglicht den Zugriff auf schädliche Waren, Dienste und Aktivitäten
    Sexuell explizite Inhalte Enthält Verweise auf sexuelle Handlungen oder andere vulgäre Inhalte
    Belästigung Böswillige, einschüchternde, mobbende oder missbräuchliche Kommentare, die auf andere Personen ausgerichtet sind

    Inhalte werden auf Basis der Wahrscheinlichkeit blockiert, dass sie schädlich sind. Die Sensitivitätsstufe kann für jede Kategorie angepasst werden, indem Sie eine der folgenden Optionen auswählen: Wenige blockieren (nur Fälle mit hoher Wahrscheinlichkeit für schädliche Inhalte werden blockiert), Einige blockieren (Fälle mit mittlerer und hoher Wahrscheinlichkeit) und Meiste blockieren (Fälle mit niedriger, mittlerer und hoher Wahrscheinlichkeit). Sie können auch Zugriff auf die eingeschränkte Option Keine blockieren erhalten, mit der die Prüfungen zu verantwortungsvoller KI für die Kategorie deaktiviert werden. Dazu müssen Sie einen Antrag auf Risikobestätigung für Ihr Projekt einreichen und die Genehmigung erhalten.

    Weitere Informationen finden Sie unter Sicherheitsattribute konfigurieren.

  • Prompt-Sicherheit

    Sie können die Einstellung Prompt-Sicherheitscheck aktivieren aktivieren, um Prompt-Sicherheitschecks zu aktivieren. Wenn diese Option aktiviert ist, versucht der Agent, Prompt-Injection-Angriffe zu verhindern. Diese Angriffe können verwendet werden, um Teile des Agent-Prompts offenzulegen oder Antworten zu liefern, die der Agent nicht liefern soll. Dazu wird ein zusätzlicher LLM-Prompt gesendet, mit dem geprüft wird, ob die Nutzeranfrage möglicherweise schädlich ist.

Git

Diese Einstellungen bieten eine Git-Integration. Folgen Sie der Anleitung, um die Integration zu konfigurieren.