In diesem Leitfaden werden die optionalen Sampling-Parameter beschrieben, die Sie in einer Anfrage an ein Modell festlegen können. Die für die einzelnen Modelle verfügbaren Parameter können unterschiedlich sein. Weitere Informationen finden Sie in der Referenzdokumentation. Auf dieser Seite werden die folgenden Themen behandelt:
Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Tokens werden vom wahrscheinlichsten bis zum am wenigsten wahrscheinlichen Token ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem Wert von „Top-P“ entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.
Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen. Niedrigere Temperaturen führen zu vorhersagbaren (aber nicht vollständig deterministischen) Ergebnissen. Weitere Informationen finden Sie unter Legen Sie Definieren Sie Strings in
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. Der Mindestwert beträgt
Positive Werte nehmen Abzüge bei Tokens vor, die wiederholt im generierten Text angezeigt werden, wodurch die Wahrscheinlichkeit wiederholter Inhalte verringert wird. Der Mindestwert beträgt Mit diesen Parametern können Sie mehr Informationen zu den Tokens in der Antwort zurückgeben oder die Variabilität der Antwort steuern.
Gibt die Log-Wahrscheinlichkeiten der Top-Kandidaten-Tokens bei jedem Generierungsschritt zurück. Das vom Modell ausgewählte Token ist möglicherweise nicht mit dem Token des Top-Kandidaten in jedem Schritt identisch. Geben Sie die Anzahl der Kandidaten an, die zurückgegeben werden sollen, indem Sie eine Ganzzahl im Bereich von Der Parameter Weitere Informationen finden Sie im Notebook Intro to Logprobs.
Wenn die Seed-Daten auf einen bestimmten Wert festgelegt sind, versucht das Modell, für wiederholte Anfragen dieselbe Antwort bereitzustellen. Die deterministische Ausgabe wird nicht zwangsläufig erfüllt.
Wenn Sie die Modell- oder Parametereinstellungen ändern, z. B. die Temperatur, kann dies außerdem zu Abweichungen in der Antwort führen, selbst wenn Sie denselben Seed-Wert verwenden. Standardmäßig wird ein zufälliger Startwert verwendet.
Weitere Informationen finden Sie unter Im folgenden Beispiel wird gezeigt, wie Sie Parameter verwenden, um die Antwort eines Modells zu optimieren.
Weitere Informationen finden Sie in der
SDK-Referenzdokumentation.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
Informationen zum Installieren oder Aktualisieren von Go
Weitere Informationen finden Sie in der
SDK-Referenzdokumentation.
Umgebungsvariablen für die Verwendung des Gen AI SDK mit Vertex AI festlegen:
Parameter für die Token-Stichprobenerhebung
Top-P
0.5
ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.
topP
.
Temperatur
topP
und topK
angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl.
Niedrigere Temperaturen eignen sich gut für Prompts, die eine weniger offene oder kreative Antwort erfordern, während höhere Temperaturen zu vielfältigeren oder kreativeren Ergebnissen führen können. Eine Temperatur von 0
bedeutet, dass immer die Tokens mit der höchsten Wahrscheinlichkeit ausgewählt werden. In diesem Fall sind die Antworten auf einen bestimmten Prompt größtenteils deterministisch, aber eine gewisse Variation ist dennoch möglich.
temperature
.Parameter zum Beenden
Maximale Ausgabetokens
maxOutputTokens
fest, um die Anzahl der Tokens zu begrenzen, die in der Antwort generiert werden. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen also etwa 60–80 Wörtern. Legen Sie einen niedrigen Wert fest, um die Länge der Antwort zu begrenzen.Stoppsequenzen
stopSequences
, um das Modell anzuweisen, Text nicht mehr zu generieren, wenn einer der Strings in der Antwort gefunden wird. Kommt ein String mehrmals in der Antwort vor, so wird die Antwort an der Stelle abgeschnitten, an der er zuerst erfasst wurde. Bei Strings wird zwischen Groß- und Kleinschreibung unterschieden.Parameter für die Token-Bestrafung
Strafe für die Häufigkeit
-2.0
. Der Höchstwert geht bis, aber nicht einschließlich 2.0
.
Weitere Informationen finden Sie unter frequencyPenalty
.Strafe für fehlende Präsenz
-2.0
. Der Höchstwert geht bis, aber nicht einschließlich 2.0
.
Weitere Informationen finden Sie unter presencePenalty
.Erweiterte Parameter
Logwahrscheinlichkeiten von Ausgabetokens
1
bis 20
angeben. Weitere Informationen finden Sie unter logprobs
. Außerdem müssen Sie den Parameter responseLogprobs
auf true
festlegen, um diese Funktion nutzen zu können.responseLogprobs
gibt die Log-Wahrscheinlichkeiten der Tokens zurück, die vom Modell in jedem Schritt ausgewählt wurden.Seed
seed
.Beispiel
Python
Installieren
pip install --upgrade google-genai
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Go
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True
Nächste Schritte
Parameter für die Inhaltsgenerierung
Sofern nicht anders angegeben, sind die Inhalte dieser Seite unter der Creative Commons Attribution 4.0 License und Codebeispiele unter der Apache 2.0 License lizenziert. Weitere Informationen finden Sie in den Websiterichtlinien von Google Developers. Java ist eine eingetragene Marke von Oracle und/oder seinen Partnern.
Zuletzt aktualisiert: 2025-08-19 (UTC).