Die Chat Completions API dient als Open AI-kompatibler Endpunkt. Sie soll die Interaktion mit Gemini in Vertex AI erleichtern, indem die Open AI-Bibliotheken für Python und REST verwendet werden. Wenn Sie bereits die OpenAI-Bibliotheken verwenden, können Sie mit dieser API kostengünstig zwischen dem Aufrufen von OpenAI-Modellen und von Vertex AI gehosteten Modellen wechseln, um Ausgabe, Kosten und Skalierbarkeit zu vergleichen, ohne den vorhandenen Code ändern zu müssen. Wenn Sie noch keine OpenAI-Bibliotheken nutzen, sollten Sie das Google Gen AI SDK verwenden.
Unterstützte Modelle
Die Chat Completions API unterstützt sowohl Gemini-Modelle als auch ausgewählte selbst bereitgestellte Modelle aus Model Garden.
Gemini-Modelle
Die folgenden Modelle unterstützen die Chat Completions API:
Selbst bereitgestellte Modelle aus Model Garden
Die Hugging Face Text Generation Interface (HF TGI) und die vordefinierten vLLM-Container von Vertex AI Model Garden unterstützen die Chat Completions API. Allerdings unterstützt nicht jedes in diesen Containern bereitgestellte Modell die Chat Completions API. Die folgende Tabelle enthält die beliebtesten unterstützten Modelle nach Container:
HF TGI |
vLLM |
---|---|
Unterstützte Parameter
Für Google-Modelle unterstützt die Chat Completions API die folgenden OpenAI-Parameter. Eine Beschreibung der einzelnen Parameter finden Sie in der OpenAI-Dokumentation zum Erstellen von Chat-Ergänzungen. Die Parameterunterstützung für Drittanbietermodelle variiert je nach Modell. Welche Parameter unterstützt werden, erfahren Sie in der Dokumentation des Modells.
messages |
|
model |
|
max_tokens |
|
n |
|
frequency_penalty |
|
presence_penalty |
|
response_format |
|
stop |
|
stream |
|
temperature |
|
top_p |
|
tools |
|
tool_choice |
|
function_call |
Dieses Feld ist veraltet, wird aber für Abwärtskompatibilität unterstützt. |
functions |
Dieses Feld ist veraltet, wird aber für Abwärtskompatibilität unterstützt. |
Nicht unterstützte Parameter werden ignoriert.
Parameter für die multimodale Eingabe
Die Chat Completions API unterstützt ausgewählte multimodale Eingaben.
input_audio |
|
image_url |
|
Im Allgemeinen kann der Parameter data
ein URI oder eine Kombination aus MIME-Typ und base64-codierten Bytes im Format "data:<MIME-TYPE>;base64,<BASE64-ENCODED-BYTES>"
sein.
Eine vollständige Liste der MIME-Typen finden Sie unter GenerateContent
.
Weitere Informationen zur Base64-Codierung von OpenAI finden Sie in der Dokumentation.
Weitere Informationen zur Verwendung finden Sie in unseren Beispielen für multimodale Eingaben.
Gemini-spezifische Parameter
Es gibt mehrere Funktionen, die von Gemini unterstützt werden, aber nicht in OpenAI-Modellen verfügbar sind.
Diese Funktionen können weiterhin als Parameter übergeben werden, müssen aber in einem extra_content
oder extra_body
enthalten sein, da sie sonst ignoriert werden.
extra_body
Features
safety_settings |
Dies entspricht SafetySetting in Gemini. |
cached_content |
Dies entspricht GenerateContentRequest.cached_content in Gemini. |
thought_tag_marker |
Wird verwendet, um die Gedanken eines Modells von seinen Antworten zu trennen, wenn für das Modell das Denken aktiviert ist. Wenn nicht angegeben, werden keine Tags für die Gedanken des Modells zurückgegeben. Falls vorhanden, werden bei nachfolgenden Abfragen die Gedanken-Tags entfernt und die Gedanken entsprechend dem Kontext gekennzeichnet. So bleibt der richtige Kontext für nachfolgende Abfragen erhalten. |
Nächste Schritte
- Weitere Informationen zur Authentifizierung und Autorisierung mit der OpenAI-kompatiblen Syntax
- Hier finden Sie Beispiele für das Aufrufen der Chat Completions API mit der OpenAI-kompatiblen Syntax.
- Hier finden Sie Beispiele für das Aufrufen der Inference API mit der OpenAI-kompatiblen Syntax.
- Hier finden Sie Beispiele für das Aufrufen der Function Calling API mit OpenAI-kompatibler Syntax.
- Weitere Informationen zur Gemini API
- Weitere Informationen zur Migration von Azure OpenAI zur Gemini API