Für Übersetzungsaufgaben bietet die generative KI in Vertex AI die Wahl zwischen Gemini-Modellen und zwei speziellen Übersetzungsmodellen aus der Cloud Translation API:
Übersetzungs-LLM: Das neueste und qualitativ hochwertigste Übersetzungsangebot von Google im LLM-Stil. Erzielt die höchste Übersetzungsqualität bei einer angemessenen Latenz (etwa dreimal schneller als Gemini 2.0 Flash).
NMÜ-Modell (neuronale maschinelle Übersetzung) von Cloud Translation: Das führende Echtzeitübersetzungsangebot von Google mit einer Latenz von etwa 100 Millisekunden. Es erreicht die höchste Qualität aller Modelle, die bei vergleichbaren Latenzen gebenchmarkt wurden, und die Qualität wird kontinuierlich verbessert. NMT kann Latenzen von bis zu 20 mal schneller als Gemini 2.0 Flash erreichen.
Hauptvorteile und Alleinstellungsmerkmale des Übersetzungs-LLM
- Unübertroffene Übersetzungsqualität: Translation LLM bietet die höchste Übersetzungsqualität und erzielt im Vergleich zu anderen Modellen, die als Benchmark dienen, eine deutlich höhere Leistung. Mit einem LLM für die Übersetzung wird ein Satz mit hoher Wahrscheinlichkeit erheblich umgeschrieben, damit er in der Zielsprache natürlicher klingt, anstatt weniger natürliche wörtliche Übersetzungen zu liefern, die bei anderen Übersetzungsmodellen häufig vorkommen.
- Besserer Kompromiss zwischen Qualität und Latenz: Mit dem LLM für Übersetzungen werden LLM-basierte Übersetzungen mit deutlich kürzeren Latenzen als Gemini 2.0 Flash geliefert. Das Übersetzungs-LLM hat zwar eine höhere Latenz als das NMÜ-Modell, liefert aber in der Regel qualitativ hochwertigere Antworten für eine breite Palette von Anwendungen.
Modellfunktionen im Vergleich
Funktion | Übersetzungs-LLM (auf Gemini basierend) | NMÜ-Modell |
---|---|---|
Beschreibung | Ein auf Übersetzungen spezialisiertes Large Language Model, das auf Gemini basiert und für die Übersetzung optimiert ist. Verfügbar mit generativer KI in Vertex AI und der Cloud Translation Advanced API. | Das neuronale maschinelle Übersetzungsmodell von Google, verfügbar über die Cloud Translation API Advanced und die Cloud Translation API Basic . Für Einfachheit und Skalierbarkeit optimiert. |
Qualität | Höchste Qualität der Übersetzung. Übertrifft NMÜ, Gemini 2.0 Flash und Gemini 2.5 Pro Experimental in Bezug auf die Qualität. Sätze werden eher umgeschrieben, um einen natürlichen Lesefluss zu ermöglichen. Deutliche Fehlerreduzierung. | Je nach Sprachpaar mittel bis hoch. Zu den leistungsstärksten Echtzeit-NMÜ-Modellen für viele Sprach- und Domainkombinationen. |
Latenz | Die Latenz ist deutlich besser als bei Gemini 2.0 Flash, aber immer noch langsamer als bei NMT. | Schnellste Echtzeitübersetzung Niedrige Latenz, geeignet für Chat- und Echtzeitanwendungen. Bis zu 20-mal schnellere Latenz als Gemini 2.0 Flash |
Sprachunterstützung | Unterstützt 19 Sprachen. Die Sprachenliste umfasst Arabisch, Chinesisch, Tschechisch, Deutsch, Englisch, Französisch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Niederländisch, Polnisch, Portugiesisch, Russisch, Spanisch, Thailändisch, Türkisch, Ukrainisch und Vietnamesisch. Im April 2025 wird die Funktion auf weitere Sprachen ausgeweitet. | Unterstützt 189 Sprachen, darunter Kantonesisch, Fidschi und Bali. Übersetzungen sind zwischen allen Sprachen in der Liste möglich. |
Anpassung | Unterstützung für: Erweiterte Glossare, Supervised Fine-tuning (überwachte Feinabstimmung) in Vertex AI für domain-/kundenspezifische Anpassungen, Adaptive translation (Adaptive Übersetzung) für die Stilanpassung in Echtzeit mit einigen Beispielen. | Unterstützung für Glossare zur Steuerung der Terminologie und zum Trainieren von benutzerdefinierten Modellen mit AutoML Translation in der Cloud Translation Advanced API. |
Übersetzungsfunktionen | HTML-Übersetzung | Übersetzung von HTML-, Batch- und formatierten Dokumenten |
API-Integration | Cloud Translation – Advanced API, Vertex AI API | Cloud Translation – Basic API, Cloud Translation – Advanced API, Vertex AI API |
Nutzung
In diesem Abschnitt erfahren Sie, wie Sie mit Vertex AI Studio Text schnell von einer Sprache in eine andere übersetzen. Sie können das Übersetzungs-LLM, Gemini oder das NMÜ-Modell verwenden, um Text mithilfe der Google Cloud Console oder API zu übersetzen. Die von den einzelnen Modellen unterstützten Sprachen können variieren. Bevor Sie Übersetzungen anfordern, prüfen Sie, ob das von Ihnen verwendete Modell Ihre Ausgangs- und Zielsprachen unterstützt.
Console
Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Wählen Sie im Bereich Ausführungseinstellungen ein Übersetzungsmodell im Feld Modell aus.
Wenn Sie die Modelleinstellungen ändern möchten, z. B. die Temperatur, maximieren Sie Erweitert.
Legen Sie die Ausgangs- und Zielsprachen fest.
Geben Sie den zu übersetzenden Text in das Eingabefeld ein.
Klicken Sie auf Senden.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
In Vertex AI Studio können Sie mit dem Übersetzungs-LLM Beispielübersetzungen bereitstellen, um die Modellantworten an Ihren Stil, Ton und Ihre Branche anzupassen. Das Modell verwendet Ihre Beispiele als Few-Shot-Kontext, bevor Ihr Text übersetzt wird.
API
Wählen Sie das Modell für Ihre Übersetzungen aus.
Übersetzungs-LLM
Verwenden Sie die Vertex AI API und das Übersetzungs-LLM, um Text zu übersetzen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - SOURCE_LANGUAGE_CODE: Der Sprachcode des Eingabetexts. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
JSON-Text anfordern:
{ "instances": [ { "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "predictions": [ { "translations": [ { "translatedText": "TRANSLATED_TEXT", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" } ] } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text" instances=[{ "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm", "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], }] # Make the request response = client.predict(instances=instances, endpoint=endpoint_id) # Handle the response print(response)
Gemini
Verwenden Sie die Vertex AI API und Gemini zum Übersetzen von Text.
Sie können Gemini-Antworten über offene Prompts und Prompt Engineering weiter anpassen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
- LOCATION: Der Standort, an dem die Anfrage verarbeitet werden soll. Folgende Optionen sind verfügbar:
Klicken Sie, um eine unvollständige Liste der verfügbaren Regionen einzublenden
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: Die ID des Modells, z. B.
gemini-1.0-pro-002
. - SOURCE_LANGUAGE_CODE: Die Sprache des Eingabetexts.
- TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
- SOURCE_TEXT: Zu übersetzender Text.
- TEMPERATURE:
Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn
topP
undtopK
angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich gut für Prompts, die eine weniger offene oder kreative Antwort erfordern, während höhere Temperaturen zu vielfältigeren oder kreativeren Ergebnissen führen können. Eine Temperatur von0
bedeutet, dass immer die Tokens mit der höchsten Wahrscheinlichkeit ausgewählt werden. In diesem Fall sind die Antworten auf einen bestimmten Prompt größtenteils deterministisch, aber eine gewisse Variation ist dennoch möglich.Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen.
- TOP_P:
Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert
0.5
ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.
- TOP_K:
Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Ein „Top-K“ von
1
bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular (auch als gierige Decodierung bezeichnet) am wahrscheinlichsten ist, während ein „Top-K“ von3
bedeutet, dass das nächste Token mithilfe der Temperatur aus den drei wahrscheinlichsten Tokens ausgewählt wird.Für jeden Tokenauswahlschritt werden die „Top-K“-Tokens mit den höchsten Wahrscheinlichkeiten abgetastet. Anschließend werden Tokens weiter auf der Grundlage von „Top-P“ gefiltert, wobei das endgültige Token mithilfe von Temperaturproben ausgewählt wird.
Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.
- MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.
Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.
- SAFETY_CATEGORY:
Die Sicherheitskategorie, für die ein Schwellenwert konfiguriert wird. Unter anderem sind folgende Werte zulässig:
Zum Maximieren von Sicherheitskategorien klicken
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD: Der Schwellenwert für das Blockieren von Antworten, die basierend auf der Wahrscheinlichkeit zur angegebenen Sicherheitskategorie gehören könnten. Unter anderem sind folgende Werte zulässig:
Zum Maximieren der Grenzwerte für die Blockierung klicken
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
blockiert am meisten, währendBLOCK_ONLY_HIGH
am wenigsten blockiert.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON-Text anfordern:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten einen erfolgreichen Statuscode (2xx) und eine leere Antwort als Ausgabe erhalten.
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js Schritten zur Einrichtung in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMÜ
Verwenden Sie die Cloud Translation API und das NMÜ-Modell zum Übersetzen von Text.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
- SOURCE_LANGUAGE: (Optional) der Sprachcode des Eingabetexts. Die unterstützten Sprachcodes finden Sie unter Sprachunterstützung.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unterstützten Sprachcodes fest.
- SOURCE_TEXT: Zu übersetzender Text.
HTTP-Methode und URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
JSON-Text anfordern:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Benutzerdefinierte Übersetzungen
Passen Sie die Antworten des Übersetzungs-LLM an, indem Sie Ihre eigenen Beispielübersetzungen bereitstellen. Benutzerdefinierte Übersetzungen funktionieren nur mit dem Übersetzungs-LLM.
Sie können eine benutzerdefinierte Übersetzung über die Vertex AI Studio-Konsole oder API mit einem Unterschied anfordern. Die Console unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele in einer TMX- oder TSV-Datei bereitstellen. Die API unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele (bis zu fünf Satzpaare) inline als Teil der Übersetzungsanfrage angeben.
Datenanforderungen
Wenn Sie Beispielübersetzungen in einer Datei für die Google Cloud Console bereitstellen, müssen die Beispiele als Segmentpaare in einer TMX- oder TSV-Datei geschrieben werden. Jedes Paar enthält ein Segment der Ausgangssprache und das übersetzte Gegenstück. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Beispielübersetzungen vorbereiten.
Fügen Sie spezifische Beispiele aus einer Vielzahl von Szenarien hinzu, um möglichst genaue Ergebnisse zu erhalten. Sie müssen mindestens fünf Satzpaare, aber nicht mehr als 10.000 Paare einbeziehen. Außerdem darf ein Segmentpaar maximal 512 Zeichen lang sein.
Console
Rufen Sie im Bereich „Vertex AI“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Konfigurieren Sie im Bereich Ausführungseinstellungen Ihre Übersetzungseinstellungen.
- Wählen Sie im Feld Modell die Option Übersetzungs-LLM aus.
- Wenn Sie die Temperatur ändern möchten, maximieren Sie Erweitert.
Klicken Sie auf Beispiele hinzufügen.
- Wählen Sie eine lokale Datei oder eine Datei aus Cloud Storage aus. Vertex AI Studio bestimmt die Ausgangs- und Zielsprachen anhand Ihrer Datei.
- Wählen Sie die Anzahl von Beispielen aus, die das Modell verwenden soll, bevor eine Antwort generiert wird.
Die Anzahl der ausgewählten Beispiele wird auf die Zeichenbeschränkung von 3.000 Eingabezeichen pro Anfrage angerechnet.
Geben Sie den zu übersetzenden Text in das Eingabefeld ein.
Klicken Sie auf Senden.
Vertex AI wählt automatisch die von Ihnen angegebene Anzahl von Referenzsätzen aus, die Ihrer Eingabe am ähnlichsten sind. Das Übersetzungsmodell identifiziert Muster aus Ihren Beispielen und wendet diese Muster dann beim Generieren einer Antwort an.
Das Ausgabelimit pro Anfrage beträgt 3.000 Zeichen. Jedweder Text jenseits dieses Limits wird gelöscht.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
API
Wenn Sie benutzerdefinierte Übersetzungen anfordern möchten, fügen Sie Ihrer Übersetzungsanfrage bis zu fünf Referenzsatzpaare hinzu. Das Übersetzungsmodell verwendet alle diese, um Muster aus Ihren Beispielen zu identifizieren. Diese Muster werden dann beim Generieren einer Antwort angewendet.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - REFERENCE_SOURCE: Ein Satz in der Ausgangssprache, der Teil eines Referenzsatzpaars ist.
- REFERENCE_TARGET: Ein Satz in der Zielsprache, der Teil eines Referenzsatzpaars ist.
- SOURCE_LANGUAGE: Der Sprachcode des Eingabetexts.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
JSON-Text anfordern:
{ "instances": [ { "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [ { "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" } ] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "content": [ "SOURCE_TEXT" ], "mimeType": "MIME_TYPE" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "predictions": [ { "languageCode": "TARGET_LANGUAGE", "translations": [ { "translatedText": "TRANSLATED_TEXT" } ] } ] }
Node.js
Bevor Sie dieses Beispiel anwenden, folgen Sie den Node.js-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Node.js API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Bevor Sie dieses Beispiel anwenden, folgen Sie den Python-Einrichtungsschritten in der Vertex AI-Kurzanleitung zur Verwendung von Clientbibliotheken. Weitere Informationen finden Sie in der Referenzdokumentation zur Vertex AI Python API.
Richten Sie zur Authentifizierung bei Vertex AI Standardanmeldedaten für Anwendungen ein. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform from google.protobuf.json_format import MessageToDict def translate(): # Create a client client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"} client = aiplatform.gapic.PredictionServiceClient(client_options=client_options) # Initialize the request endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm" instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "content": ["SOURCE_TEXT"] }] # Make the request response = client.predict( endpoint=endpoint_id, instances=instances, ) # Handle the response print(response) # The predictions are a google.protobuf.Value representation of the model's predictions. predictions = MessageToDict(response._pb)['predictions'] for prediction in predictions: print(prediction['translations'])
Sie können die Cloud Translation API auch verwenden, um ein Dataset zu erstellen und Ihre Beispielsatzpaare zu importieren. Wenn Sie die Cloud Translation API zum Anfordern von Übersetzungen verwenden, können Sie Ihr Dataset einschließen, um Antworten anzupassen. Das Dataset bleibt bestehen und kann mit mehreren Übersetzungsanfragen wiederverwendet werden. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Adaptive Übersetzungen anfordern.
Unterstützte Sprachen
Übersetzungs-LLM
Mit dem Übersetzungs-LLM können Sie in jedes und aus jedem der folgenden Sprachen übersetzen:
Sprache | Sprachcode |
---|---|
Arabisch | ar |
Chinesisch | zh-CN |
Tschechisch | cs |
Niederländisch | nl |
Englisch | en |
Französisch | fr |
Deutsch | de |
Hindi | hi |
Indonesisch | id |
Italienisch | it |
Japanisch | ja |
Koreanisch | ko |
Polnisch | pl |
Portugiesisch | pt |
Russisch | ru |
Spanisch | es |
Thai | th |
Türkisch | tr |
Ukrainisch | uk |
Vietnamesisch | vi |
Gemini und NMÜ
Informationen dazu, welche Sprachen die Gemini-Modelle und das NMÜ-Modell von Cloud Translation unterstützen, finden Sie in der folgenden Dokumentation: