Generatoren verwenden die neuesten generativen Large Language Models (LLMs) von Google und von Ihnen bereitgestellte Prompts, um das Verhalten und die Antworten von Kundenservicemitarbeitern zur Laufzeit zu generieren. Die verfügbaren Modelle werden von Vertex AI bereitgestellt.
Mit einem Generator können Sie einen LLM nativ über Konversations-Agents (Dialogflow CX) aufrufen, ohne einen eigenen externen Webhook erstellen zu müssen. Sie können den Generator so konfigurieren, dass er alles erledigt, was Sie normalerweise von einem LLM verlangen würden.
Generatoren eignen sich hervorragend für Aufgaben wie Zusammenfassung, Parameterextraktion und Datentransformationen. Unten finden Sie Beispiele.
Beschränkungen
Diese Funktion ist für Kundenservicemitarbeiter in jeder Dialogflow-Sprache verfügbar. Die verfügbaren Modelle können jedoch strengere Sprachbeschränkungen haben. Weitere Informationen finden Sie unter Vertex AI.
Generatorkonzepte
Die Vertex AI-Dokumentation enthält Informationen, die Sie beim Erstellen von Generatoren für Dialogflow kennen sollten:
- Modelle (Foundation Models von Google und Modellversionen und -lebenszyklus)
- Prompts
- Steuerelemente (in Vertex AI als „Parameterwerte“ bezeichnet)
Generator definieren
So erstellen Sie einen Generator:
- Rufen Sie die Dialogflow CX Console auf.
- Wählen Sie Ihr Google Cloud-Projekt aus.
- Wählen Sie den Kundenservicemitarbeiter aus.
- Klicke auf den Tab Verwalten.
- Klicken Sie auf Generatoren.
- Klicken Sie auf Neu erstellen.
- Geben Sie einen aussagekräftigen Anzeigenamen für den Generator ein.
- Geben Sie den Textprompt, das Modell und die Steuerelemente wie unter Konzepte beschrieben ein.
- Klicken Sie auf Speichern.
Der Textprompt wird während der Ausführung an das generative Modell gesendet. Es sollte sich um eine klare Frage oder Anfrage handeln, damit das Modell eine zufriedenstellende Antwort generieren kann.
Sie können den Prompt kontextbezogen machen, indem Sie Wörter als Platzhalter markieren, indem Sie vor das Wort ein $
einfügen. Sie können diese Platzhalter für Generatorprompts später mit Sitzungsparametern in der Auftragsausführung verknüpfen. Sie werden bei der Ausführung durch die Werte der Sitzungsparameter ersetzt.
Es gibt spezielle Generator-Prompt-Platzhalter, die nicht mit Sitzungsparametern verknüpft werden müssen. Diese integrierten Platzhalter für Generatorvorschläge sind
Begriff | Definition |
---|---|
$conversation |
Die Unterhaltung zwischen dem Kundenservicemitarbeiter und dem Nutzer, ausgenommen die letzte Nutzeräußerung und die Äußerungen des Kundenservicemitarbeiters danach. |
$last-user-utterance |
Die letzte Nutzeräußerung. |
Generator bei der Auftragsausführung verwenden
Sie können Generatoren bei der Auftragsausführung verwenden, z. B. in Routen, Ereignis-Handlern und Parametern.
Maximieren Sie im Bereich Fulfillment den Abschnitt Generators. Klicken Sie dann auf Generator hinzufügen. Sie können jetzt einen vordefinierten Generator auswählen oder einen neuen Generator definieren.
Nachdem Sie einen Generator ausgewählt haben, müssen Sie die Platzhalter für den Generatorvorschlag des Prompts mit Sitzungsparametern verknüpfen. Außerdem müssen Sie den Ausgabeparameter definieren, der das Ergebnis des Generators nach der Ausführung enthält.
Hinweis: Sie können einer Auslieferung mehrere Generatoren hinzufügen, die parallel ausgeführt werden.
Der Ausgabeparameter kann dann später verwendet werden, z. B. in der Antwort des Kundenservicemitarbeiters.
Generator testen
Die Funktion Generator kann direkt im Simulator getestet werden.
Beispiele
In diesem Abschnitt finden Sie Beispielanwendungsfälle für Generatoren. Da Generatoren eine generative Technologie sind, die auf Large Language Models (LLMs) basiert, können sich Ihre individuellen Ergebnisse bei Verwendung der folgenden Beispiel-Prompts von der hier dokumentierten Ausgabe unterscheiden. Alle von Google zurückgegebenen Prompt-Ergebnisse sind bestmöglich.
Inhaltszusammenfassung
In diesem Beispiel wird gezeigt, wie Inhalte zusammengefasst werden.
Aufgabe:
Your goal is to summarize a given text.
Text:
$text
A concise summary of the text in 1 or 2 sentences is:
Unterhaltungszusammenfassung
In diesem Beispiel wird gezeigt, wie eine Unterhaltungszusammenfassung erstellt wird.
Aufgabe:
You are an expert at summarizing conversations between a User and an Agent.
When providing the summary, always start with "Dear $email_address, the conversation summary is as follows:"
Provide a summary in a few bullet points.
Try to be as brief as possible with each bullet point,
only noting the key points of the conversation.
Output the summary in markdown format.
Conversation:
$conversation
Summary:
Gelöster Prompt:
In einer Beispielunterhaltung könnte der aufgelöste Prompt, der an das generative Modell gesendet wird, so lauten:
You are an expert at summarizing conversations between a User and an Agent.
When providing the summary, always start with "Dear joe@example.com conversation summary is as follows:"
Provide a summary in a few bullet points.
Try to be as brief as possible with each bullet point,
only noting the key points of the conversation.
Output the summary in markdown format.
Conversation:
Agent: Good day! What can I do for you today?
User: Hi, which models can I use in Conversational Agents (Dialogflow CX)'s generators?
Agent: You can use all models that Vertex AI provides!
User: Thanks, thats amazing!
Summary:
Markdown-Formatierung
In diesem Beispiel wird gezeigt, wie Text in Markdown formatiert wird.
# Instructions
You are presented with a text and your goal is to apply markdown formatting to text.
**NOTE:** Do not change the meaning of the text, only the formatting.
# Example
## Text
Generators allow you to use Googles latest generative models to format text,
or to create a summaries, or even to write code. What an amazing feature.
## Text in Markdown
*Generators* allow you to use Google's latest generative models to
* format text
* create a summaries
* write code
What an amazing feature.
# Your current task
## Text
$text
## Text in Markdown
Question Answering
In dieser Reihe von Beispielen wird gezeigt, wie Sie Generatoren verwenden, um Fragen zu beantworten.
Zuerst können Sie sich einfach auf das interne Wissen des generativen Modells verlassen, um die Frage zu beantworten. Beachten Sie jedoch, dass das Modell nur eine Antwort basierend auf Informationen liefert, die Teil der Trainingsdaten waren. Es gibt keine Garantie dafür, dass die Antwort wahr oder aktuell ist.
Aufforderung zur Beantwortung von Fragen mithilfe von Selbstwissen
Your goal is to politely reply to a human with an answer to their question.
The human asked:
$last-user-utterance
You answer:
Mithilfe der bereitgestellten Informationen eine Frage stellen
Wenn das Modell jedoch auf Grundlage der von Ihnen bereitgestellten Informationen antworten soll, können Sie sie einfach zum Prompt hinzufügen. Das funktioniert, wenn Sie nicht zu viele Informationen angeben möchten (z.B. eine kleine Speisekarte eines Restaurants oder Kontaktdaten Ihres Unternehmens).
# Instructions
Your goal is to politely answer questions about the restaurant menu.
If you cannot answer the question because it's not related to the restaurant
menu or because relevant information is missing from the menu, you politely
decline to answer.
# Restaurant menu:
## Starters
Salat 5$
## Main dishes
Pizza 10$
## Deserts
Ice cream 2$
# Examples
Question: How much is the pizza?
Answer: The pizza is 10$.
Question: I want to order the ice cream.
Answer: We do have ice cream! However, I can only answer questions about the menu.
Question: Do you have spaghetti?
Answer: I'm sorry, we do not have spaghetti on the menu.
# Your current task
Question: $last-user-utterance
Answer:
Aufforderung zur Beantwortung von Fragen mit dynamisch bereitgestellten Informationen
Oft sind die Informationen, auf denen das Modell seine Antwort basieren soll, zu umfangreich, um sie einfach in den Prompt einzufügen. In diesem Fall können Sie den Generator mit einem Informationsabrufsystem wie einer Datenbank oder einer Suchmaschine verbinden, um die Informationen dynamisch anhand einer Abfrage abzurufen. Sie können die Ausgabe dieses Systems einfach in einem Parameter speichern und mit einem Platzhalter im Prompt verknüpfen.
# Instructions
Your goal is to politely answer questions based on the provided information.
If you can't answer the question given the provided information, you politely
decline to answer.
# Provided information:
$information
Question: $last-user-utterance
Answer:
Codegenerierung
In diesem Beispiel wird gezeigt, wie Sie mit einem Generator Code schreiben. Beachten Sie, dass es hier sinnvoll ist, ein generatives Modell zu verwenden, das speziell zum Generieren von Code trainiert wurde.
Eingabeaufforderung
# Instructions:
Your goal is to write code in a given programming language solving a given problem.
Problem to solve:
$problem
Programming language:
$programming-language
# Solution:
Eskalierung an einen Kundenservicemitarbeiter
In diesem Beispiel wird gezeigt, wie du eine Eskalierung an einen Kundenservicemitarbeiter handhabst. Die letzten beiden Anweisungen im Prompt verhindern, dass das Modell zu ausschweifend wird.
Aufgabe:
# Instructions:
You are a polite customer service agent that handles requests
from users to speak with an operator.
Based on the $last-user-utterance,
respond to the user appropriately about their request to speak with an operator.
Always be polite and assure the user that you
will do your best to help their situation.
Do not ask the user any questions.
Do not ask the user if there is anything you can do to help them.
# Answer:
Generierung von Suchanfragen
In diesem Beispiel wird gezeigt, wie Sie eine vom Nutzer angegebene Google-Suchanfrage optimieren.
Aufgabe:
# Instructions:
You are an expert at Google Search and using "Google Fu"
to build concise search terms that provide the highest quality results.
A user will provide an example query,
and you will attempt to optimize this to be the best Google Search query possible.
# Example:
User: when was covid-19 first started and where did it originated from?
Agent: covid-19 start origin
# Your task:
User: $text
Agent:
Abrufen von Kundendaten
In diesem Beispiel wird gezeigt, wie Sie Informationen abrufen und Daten im String- oder JSON-Format suchen. Diese Formate werden häufig für Dialogflow-Sitzungsparameter verwendet.
Aufgabe:
You are a database engineer and specialize in extracting information
from both structured and unstructured data formats like CSV, SQL, JSON,
and also plain text.
Given a $user_db, extract the information requested
by the user from the $last-user-utterance
EXAMPLE:
user_db: {'customer_name': 'Patrick', 'balance': '100'}
User: What is my current account balance?
Agent: Your current balance is 100.
Begin!
user_db: $user_db
User: $last-user-utterance
Agent:
JSON-Objekt aktualisieren
In diesem Beispiel wird gezeigt, wie ein Eingabe-JSON-Objekt vom Nutzer (oder Webhook) akzeptiert und dann basierend auf der Anfrage des Nutzers manipuliert wird.
Aufgabe:
You are an expert Software Engineer
that specializes in the JSON object data structure.
Given some user $update_request and existing $json_object,
you will modify the $json_object based on the user's $update_request.
EXAMPLE:
json_object = { "a": 1, "b": 123 }
User: Add a new key/value pair to my JSON
Agent: What do you want to add?
User: c: cat
Agent: { "a": 1, "b": 123, "c": "cat"}
json_object = {"accounts": [{"username": "user1", "account_number": 12345}, {"username": "user2", "account_number": 98765}], "timestamp": "2023-05-25", "version":"1.0"}
User: Add a new value for user1
Agent: What do you want to add?
User: birthday, 12/05/1982
Agent: {"accounts": [{"username": "user1", "account_number": 12345, "birthday": "12/05/1982"}, {"username": "user2", "account_number": 98765}], "timestamp": "2023-05-25", "version":"1.0"}
json_object = $json_object
User: Add a new key value to my db
Agent: What do you want to add?
User: $last-user-utterance
Agent:
Codelab
Weitere Informationen finden Sie im Codelab zu Generatoren.
Fehlerbehebung
Wenn Sie die Funktion debuggen möchten, können Sie den aufgelösten LLM-Eingabeprompt (Large Language Model) im Dialogflow Console-Simulator prüfen:
Klicken Sie auf die Schaltfläche Originalantwort:
Suchen Sie das Feld Generators LLM Inputs (LLM-Eingabe für Generatoren). Lesen Sie diese Felder als Nur-Text und prüfen Sie, ob die LLM-Eingabe sinnvoll ist. Wenn ein Satz
$
enthält, prüfen Sie die Simulatoreingabe und klären Sie, ob das$
in den Prompts beabsichtigt ist.$
inprice is $10
ist beispielsweise wahrscheinlich beabsichtigt, währendvisit $city
wahrscheinlich nicht beabsichtigt ist und entweder auf Missbrauch oder einen Fehler hinweisen könnte.Wenn Sie das Feld „Generative LLM Inputs“ nicht sehen, wenden Sie sich an den Support.