Erweiterte Spracheinstellungen

Dieser Leitfaden enthält zusätzliche erweiterte Einstellungen für Sprachfunktionen. Sie können diese erweiterten Einstellungen aktivieren und deaktivieren, indem Sie zu Agent-Einstellungen > Sprache und IVR > Speech-to-Text > Erweiterte Spracheinstellungen gehen.

Diese Einstellungen sind in den Agent-Einstellungen (gilt für den gesamten Agent), den Ablauf-Einstellungen (gilt für den gesamten Ablauf und überschreibt die Agent-Einstellungen), den Seiten-Einstellungen (gilt für die Seite und überschreibt die Ablauf- und Agent-Einstellungen) und den Einstellungen für die Auftragsausführung (gilt für die Auftragsausführung und überschreibt die Seiten-, Ablauf- und Agent-Einstellungen) verfügbar. Je nach Relevanz der Einstellung für eine Ebene ist eine Teilmenge dieser Einstellungen auf jeder Ebene verfügbar. *Bevor Sie diese Einstellungen auf einer niedrigeren Ebene konfigurieren können, müssen Sie zuerst das Kästchen Erweiterte Spracheinstellungen aktivieren auf Agent-Ebene aktivieren („Agent-Einstellungen“ > „Sprache und IVR“ > Speech-to-Text“ > „Erweiterte Spracheinstellungen“).*

Aktualisierte Einstellungen auf Agent-Ebene werden nicht auf Ablauf-, Seiten- und Fulfillment-Ebene übertragen, wenn auf diesen niedrigeren Ebenen die Option Anpassen ausgewählt ist. Wenn die Option Anpassen mehrere Einstellungen umfasst und Sie nur einige davon aktualisieren möchten, müssen Sie möglicherweise auch andere Einstellungen aktualisieren, damit sie mit den Einstellungen auf Agentenebene übereinstimmen.

Verfügbarkeit von Einstellungen nach Ebene

In der folgenden Tabelle sehen Sie, welche erweiterten Spracheinstellungen auf den einzelnen Ebenen verfügbar sind:

Name der Einstellung Agent Flow Seite Auftragsausführung
Modellauswahl (Speech-to-Text)
Empfindlichkeit zum Erkennen des Redeendes
Erweiterte Timeout-basierte Empfindlichkeit zum Erkennen des Redeendes
Smart-Endpunkt aktivieren
Kein Zeitlimit für Sprache
Eingreifen
Wiedergabe von Teilantworten darf abgebrochen werden
Bucket für Audioexport
DTMF

Modellauswahl (Speech-to-Text)

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Legt das für die Spracherkennung verwendete Sprachmodell fest. Diese Einstellung ist sprachspezifisch. Sie können also für verschiedene Sprachen unterschiedliche Modelle auswählen. Sie können auch Override request-level speech model (Sprachmodell auf Anfrageebene überschreiben) auswählen. In diesem Fall wird das ausgewählte Modell auch dann verwendet, wenn in einem Runtime-API-Aufruf ein anderes Modell angegeben ist.

Informationen zum Telefonie-Gateway für Konversations-Agents (Dialogflow CX) finden Sie unter Einschränkungen. Weitere Informationen finden Sie unter Sprachmodelle.

Empfindlichkeit zum Erkennen des Redeendes

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Steuert die Empfindlichkeit zum Erkennen des Endes von Sprache in der Audioeingabe des Endnutzers. Der Wert reicht von 0 (niedrige Empfindlichkeit, weniger wahrscheinlich Endsprache) bis 100 (hohe Empfindlichkeit, eher zu Endsprache).

Erweiterte Timeout-basierte Empfindlichkeit zum Erkennen des Redeendes

Kann auf Agent-Ebene festgelegt und auf Flow- und Seitenebene deaktiviert werden.

Wenn diese Einstellung aktiviert ist, wird der Wert der Einstellung Empfindlichkeit für das Ende der Spracheingabe als Richtwert verwendet, um ein relatives Zeitlimit für die Stille festzulegen, um das Ende der Spracheingabe zu bestimmen. Wenn diese Einstellung deaktiviert ist (Standardeinstellung), wird der Wert der Einstellung Empfindlichkeit für das Ende der Spracheingabe verwendet, um das Ende der Spracheingabe durch das von Google Cloud Speech-to-Text bereitgestellte ML-Modell zu bestimmen.

Während die Einstellung Empfindlichkeit zum Erkennen des Redeendes standardmäßig nur das phone_call-Sprachmodell für das en-US-Tag language unterstützt, kann mit der Einstellung Erweiterte Empfindlichkeit zum Erkennen des Redeendes auf Grundlage von Zeitüberschreitungen aktivieren die Empfindlichkeit zum Erkennen des Redeendes für alle von Dialogflow unterstützten Sprachen und Sprachmodelle konfiguriert werden.

Smart-Endpunkt aktivieren

Kann nur auf Agentenebene festgelegt werden.

Wenn diese Einstellung aktiviert ist, analysieren Conversational Agents (Dialogflow CX) die teilweise Nutzereingabe, um das Ende der Sprache zu ermitteln. Wenn der Nutzer beispielsweise „Ich möchte“ sagt und eine Pause einlegt, warten Conversational Agents (Dialogflow CX) darauf, dass der Nutzer den Satz fortsetzt.

Das ist besonders nützlich für die Erfassung numerischer Parameter, wenn der Nutzer beispielsweise „1234“ sagt und dann eine Pause einlegt, bevor er „5678“ sagt. Wenn Sie diese Einstellung für einen bestimmten Parameter anwenden möchten, müssen Sie im Formular des Parameters Smart Endpointing einrichten.

Diese Einstellung ist nur für das Sprach-Tag en-US verfügbar und ist standardmäßig deaktiviert.

Kein Zeitlimit für Sprache

Kann auf Agent-, Ablauf- und Seitenebene festgelegt werden.

Die Zeitdauer in Sekunden, für die Konversations-Agents (Dialogflow CX) auf die Audioeingabe des Endnutzers warten. Der Standardwert ist 5 Sekunden und der Höchstwert 60 Sekunden. Für dieses Zeitlimit ruft Conversational Agents (Dialogflow CX) ein No-input-Ereignis auf.

Eingreifen

Kann auf Agent-, Ablauf- und Fulfillment-Ebene festgelegt werden.

Wenn diese Option aktiviert ist, kann ein Endnutzer die Antwortantwort von Conversational Agents (Dialogflow CX) unterbrechen. Bei Unterbrechung sendet Conversational Agents (Dialogflow CX) keine Audiodaten mehr und verarbeitet die nächste Endnutzereingabe.

Wenn sich in der Nachrichtenwarteschlange mehrere Nachrichten befinden und eine Nachricht von einer Auftragsausführung in eine Warteschlange gestellt wurde, die einer Seite, einem Ablauf oder einem Agent zugeordnet ist, für den das Eingreifen aktiviert ist, wird für alle folgenden Nachrichten in der Warteschlange ebenfalls das Eingreifen aktiviert. In diesem Fall wird die Integration der Integration für alle Nachrichten in der Warteschlange beendet, bei denen das Eingreifen aktiviert ist.

Wiedergabe von Teilantworten darf abgebrochen werden

Kann nur auf Erfüllungsebene festgelegt werden.

Sie können diese Einstellung aktivieren, wenn das Kästchen Erweiterte Spracheinstellungen aktivieren unter Agenteinstellungen > Sprache und IVR angekreuzt ist und Teilantwort auf der Ebene der Auftragsausführung aktiviert ist. Mit dieser Einstellung kann die Wiedergabe einer Teilantwort abgebrochen werden.

Wenn eine Nachricht in der Nachrichtenwarteschlange von einer Auftragsausführung erstellt wird, die das Abbrechen ermöglicht, wird die Wiedergabe der Nachricht abgebrochen, wenn eine andere Nachricht in die Warteschlange gestellt wird. Das ist nützlich, wenn Sie möchten, dass die Wiedergabe mit einer ersten Nachricht gestartet wird, aber abgebrochen wird, wenn ein funktionierender Webhook eine andere Nachricht erzeugt, bevor die Wiedergabe der ersten Nachricht abgeschlossen ist.

Bucket für Audioexport

Kann auf Agent- und Flussebene festgelegt werden.

Wenn angegeben, werden alle Audiodaten, die mit einer Anfrage verknüpft sind, im Cloud Storage-Bucket gespeichert:

Audio gespeichert Anwendbare Anfragen
Audioeingabe durch Endnutzer DetectIntent, StreamingDetectIntent, AnalyzeContent, StreamingAnalyzeContent
Für eine Antwort synthetisierte Sprachausgabe (Text-to-Speech, TTS) AnalyzeContent, StreamingAnalyzeContent

Weisen Sie den folgenden Dienstkonten in Ihrem Projekt die Rolle Storage-Objekt-Ersteller zu:

  • Dem Dienstkonto des Formats one-click@df-cx-ALPHANUMERIC_VALUE-ALPHANUMERIC_VALUE.iam.gserviceaccount.com, wenn Sie eine integrierte Partner-Telefonieintegration verwenden.

  • Dem Dienstkonto des Formats service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com, wenn Sie die Einbindung Dialogflow CX Phone Gateway verwenden. Wenn Sie dieses Dienstkonto in IAM suchen möchten, klicken Sie die Option Von Google bereitgestellte Rollenzuweisungen einschließen an.

DTMF

Weitere Informationen zu dieser Funktion finden Sie in der Dokumentation zur DTMF-Signalisierung (Dual-Tone Multi-Frequency).