Textgenerierung

Auf dieser Seite erfahren Sie, wie Sie mithilfe der Google Cloud Console, der REST API und unterstützter SDKs Chat-Prompts an das Gemini-Modell senden.

Informationen zum Hinzufügen von Bildern und anderen Medien zu Ihrer Anfrage finden Sie unter Bildererkennung.

Eine Liste der von Gemini unterstützten Sprachen finden Sie unter Sprachunterstützung.


Informationen zu den in Vertex AI verfügbaren generativen KI-Modellen und APIs finden Sie in der Model Console in der Google Cloud Console.

Zu Model Garden


Wenn Sie nach einer Möglichkeit suchen, Gemini direkt über Ihre mobilen und Ihre Web-Apps zu verwenden, finden Sie weitere Informationen in den Vertex AI in Firebase SDKs für Android-, Swift-, Web- und Flutter-Apps.

Text generieren

Zum Testen und Iterieren von Chat-Prompts empfehlen wir die Verwendung der Google Cloud Console. Um Prompts programmatisch an das Modell zu senden, können Sie die REST API, das Google Gen AI SDK, das Vertex AI SDK für Python oder eine der anderen unterstützten Bibliotheken und SDKs verwenden.

Mit Systemanweisungen können Sie das Verhalten des Modells basierend auf einer bestimmten Anforderung oder einem bestimmten Anwendungsfall steuern. Sie können beispielsweise eine Persona oder Rolle für einen Chatbot definieren, der auf Kundenserviceanfragen antwortet. Weitere Informationen finden Sie in den Codebeispielen für die Systemanleitung.

Gemini 2.0

Sie können das Google Gen AI SDK verwenden, um Anfragen zu senden, wenn Sie Gemini 2.0 Flash verwenden.

Streaming- und Nicht-Streaming-Antworten

Sie können auswählen, ob das Modell Streaming-Antworten oder Nicht-Streaming-Antworten generiert. Bei Streaming-Antworten erhalten Sie jede Antwort, sobald ihr Ausgabetoken generiert wurde. Bei Nicht-Streaming-Antworten erhalten Sie alle Antworten, nachdem alle Ausgabetokens erzeugt wurden.

Streaming

Gen AI SDK for Python

Installieren

pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.

Legen Sie Umgebungsvariablen fest, um das Gen AI SDK mit Vertex AI zu verwenden:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions

client = genai.Client(http_options=HttpOptions(api_version="v1"))
chat_session = client.chats.create(model="gemini-2.0-flash-001")
response_text = ""

for chunk in chat_session.send_message_stream("Why is the sky blue?"):
    print(chunk.text, end="")
    response_text += chunk.text
# Example response:
# The
#  sky appears blue due to a phenomenon called **Rayleigh scattering**. Here's
#  a breakdown of why:
# ...

Nicht-Streaming

Gen AI SDK for Python

Installieren

pip install --upgrade google-genai
Weitere Informationen finden Sie in der SDK-Referenzdokumentation.

Legen Sie Umgebungsvariablen fest, um das Gen AI SDK mit Vertex AI zu verwenden:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=us-central1
export GOOGLE_GENAI_USE_VERTEXAI=True

from google import genai
from google.genai.types import HttpOptions, ModelContent, Part, UserContent

client = genai.Client(http_options=HttpOptions(api_version="v1"))
chat_session = client.chats.create(
    model="gemini-2.0-flash-001",
    history=[
        UserContent(parts=[Part(text="Hello")]),
        ModelContent(
            parts=[Part(text="Great to meet you. What would you like to know?")],
        ),
    ],
)
response = chat_session.send_message("Tell me a story.")
print(response.text)
# Example response:
# Okay, here's a story for you:
# ...

Nächste Schritte