Dialogflow verwendet seit vielen Jahren Sprachmodelle, um Endnutzer-Intents während einer Unterhaltung zu verstehen. Vor Juli 2023 wurden Sprachmodelle nicht für Agent-Antworten verwendet. Daher mussten Sie Antworten für jeden möglichen Unterhaltungspfad explizit definieren.
Durch die kürzlich eingeführte Einführung mehrerer generativer Funktionen hat sich dies geändert. Sie können jetzt Large Language Models (LLMs) verwenden, um Inhalte zu parsen und zu verstehen, Agent-Antworten zu generieren und den Unterhaltungsablauf zu steuern. Dies kann die Entwicklungszeit des Agents erheblich verkürzen und die Qualität des Agents verbessern.
Dokumentation zu jedem dieser neuen Features finden Sie im Ordner Generative AI im linken Navigationsbereich der Dokumentation. Im Folgenden finden Sie eine Übersicht über die neuen generativen Funktionen:
X | Element |
---|---|
Generative Playbooks | Generative Playbooks bieten eine neue Möglichkeit zum Erstellen von Dialogflow CX-Agents mithilfe von LLMs. Anstatt Abläufe, Seiten, Intents und Übergänge zu definieren, stellen Sie Anweisungen in natürlicher Sprache und strukturierte Daten in Form von Playbooks zur Verfügung. Dies kann die Erstellungs- und Wartungszeit von Agents erheblich verkürzen und Ihrem Unternehmen völlig neue Arten von Konversationen ermöglichen. |
Datenspeicher-Agents | Datenspeicher-Agents parsen und verstehen Ihre öffentlichen oder privaten Inhalte (Website, interne Dokumente usw.). Sobald diese Informationen indexiert sind, kann der Agent Fragen beantworten und Gespräche über den Inhalt führen. Sie müssen nur die Inhalte bereitstellen. |
Generatoren | Generatoren werden zum Generieren von Agent-Antworten verwendet. Anstatt die Agent-Antwort für die Auftragsausführung bereitzustellen, stellen Sie eine LLM-Aufforderung bereit, die viele Szenarien verarbeiten kann, einschließlich der Zusammenfassung von Unterhaltungen, der Beantwortung von Fragen, dem Abrufen von Kundendaten und der Eskalierung an einen Mitarbeiter. |
Generatives Fallback | Ein generativer Fallback wird verwendet, um Agent-Antworten zu generieren, wenn die Endnutzereingabe mit keinem Intent übereinstimmt. Sie können ein generatives Fallback für No-Match-Event-Handler aktivieren, indem Sie eine LLM-Aufforderung zum Generieren der Antwort bereitstellen. |