Auf dieser Seite erfahren Sie, wie Sie mit Vertex AI Studio Text schnell von einer Sprache in eine andere übersetzen. Translation in Vertex AI Studio bietet die Wahl zwischen Gemini und zwei speziellen Übersetzungsmodellen, darunter das NMÜ-Modell (Neural Machine Translation) von Cloud Translation und ein optimiertes LLM für Übersetzungen (auch als Übersetzungs-LLM bezeichnet).
Wenn Sie das Übersetzungs-LLM verwenden, können Sie die Antworten mithilfe von Beispielübersetzungen anpassen, sodass die Antworten besser Ihrem Stil, Ihrem Ton und Ihrer Branchendomain entsprechen. Das Modell verwendet Ihre Beispiele als Few-Shot-Kontext, bevor Ihr Text übersetzt wird. In Vertex AI Studio funktioniert diese Anpassung nur mit dem Übersetzungs-LLM. Sie können beispielsweise keine Beispiele übergeben, wenn Sie Gemini oder das NMÜ-Modell verwenden.
Unterstützte Sprachen
Die von den einzelnen Modellen unterstützten Sprachen können variieren. Bevor Sie Übersetzungen anfordern, prüfen Sie, ob das von Ihnen verwendete Modell Ihre Ausgangs- und Zielsprachen unterstützt.
Übersetzungs-LLM
Beim Übersetzungs-LLM können Sie in jedes und aus jedem der folgenden Sprachpaare übersetzen:
- Arabisch <-> Englisch
- Chinesisch (vereinfacht) <-> Englisch
- Tschechisch <-> Englisch
- Niederländisch <-> Englisch
- Französisch <-> Englisch
- Deutsch <-> Englisch
- Hindi <-> Englisch
- Indonesisch <-> Englisch
- Italienisch <-> Englisch
- Japanisch <-> Englisch
- Koreanisch <-> Englisch
- Polnisch <-> Englisch
- Portugiesisch <-> Englisch
- Russisch <-> Englisch
- Spanisch <-> Englisch
- Thai <-> Englisch
- Türkisch <-> Englisch
- Ukrainisch <-> Englisch
- Vietnamesisch <-> Englisch
Gemini und NMÜ
Informationen dazu, welche Sprachen Gemini und das NMÜ-Modell unterstützen, finden Sie in der folgenden Dokumentation:
Text übersetzen
Verwenden Sie das Übersetzungs-LLM, Gemini- oder NMÜ-Modell, um Text mithilfe der Google Cloud Console oder API zu übersetzen.
Console
Rufen Sie im Bereich „Cloud Translation“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Wählen Sie im Bereich Ausführungseinstellungen ein Übersetzungsmodell im Feld Modell aus.
Wenn Sie die Modelleinstellungen ändern möchten, z. B. die Temperatur, maximieren Sie Erweitert.
Legen Sie die Ausgangs- und Zielsprachen fest.
Geben Sie den zu übersetzenden Text in das Eingabefeld ein.
Klicken Sie auf Senden.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
API
Wählen Sie das Modell für Ihre Übersetzungen aus.
Übersetzungs-LLM
Verwenden Sie die Vertex AI API und Übersetzungs-LLM, um Text zu übersetzen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - SOURCE_LANGUAGE_CODE: Der Sprachcode des Eingabetexts. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unter adaptive Übersetzung aufgeführten Sprachcodes fest.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
JSON-Text anfordern:
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Verwenden Sie die Vertex AI API und Gemini zum Übersetzen von Text.
Sie können Gemini-Antworten über offene Prompts und Prompt Engineering weiter anpassen.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
- LOCATION: Der Standort, an dem die Anfrage verarbeitet werden soll. Folgende Optionen sind verfügbar:
Klicken Sie, um eine unvollständige Liste der verfügbaren Regionen einzublenden
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: Die ID des Modells, z. B.
gemini-1.0-pro-002
. - SOURCE_LANGUAGE_CODE: Die Sprache des Eingabetexts.
- TARGET_LANGUAGE_CODE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
- SOURCE_TEXT: Zu übersetzender Text.
- TEMPERATURE:
Die Temperatur wird für die Probenahme während der Antwortgenerierung verwendet. Dies passiert, wenn
topP
undtopK
angewendet werden. Die Temperatur bestimmt den Grad der Zufälligkeit bei der Tokenauswahl. Niedrigere Temperaturen eignen sich gut für Prompts, die eine weniger offene oder kreative Antwort erfordern, während höhere Temperaturen zu vielfältigeren oder kreativeren Ergebnissen führen können. Eine Temperatur von0
bedeutet, dass immer die Tokens mit der höchsten Wahrscheinlichkeit ausgewählt werden. In diesem Fall sind die Antworten auf einen bestimmten Prompt größtenteils deterministisch, aber eine gewisse Variation ist dennoch möglich.Wenn das Modell eine zu allgemeine oder zu kurze Antwort zurückgibt, oder wenn das Modell eine Fallback-Antwort ausgibt, versuchen Sie, die Temperatur zu erhöhen.
- TOP_P:
Der Wert „Top-P“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Die Tokens werden von den wahrscheinlichsten (siehe „Top-K“) bis zu den unwahrscheinlichsten Werten ausgewählt, bis die Summe ihrer Wahrscheinlichkeiten dem „Top-P“-Wert entspricht. Beispiel: Wenn die Tokens A, B und C eine Wahrscheinlichkeit von 0,3, 0,2 und 0,1 haben und der „Top-P“-Wert
0.5
ist, wählt das Modell anhand der Temperatur entweder A oder B als das nächste Token und C als Kandidaten ausschließen.Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.
- TOP_K:
Der Wert „Top-K“ ändert, wie das Modell Tokens für die Ausgabe auswählt. Ein „Top-K“ von
1
bedeutet, dass das nächste ausgewählte Token unter den Tokens im Modell-Vokabular (auch als gierige Decodierung bezeichnet) am wahrscheinlichsten ist, während ein „Top-K“ von3
bedeutet, dass das nächste Token mithilfe der Temperatur aus den drei wahrscheinlichsten Tokens ausgewählt wird.Für jeden Tokenauswahlschritt werden die „Top-K“-Tokens mit den höchsten Wahrscheinlichkeiten abgetastet. Anschließend werden Tokens weiter auf der Grundlage von „Top-P“ gefiltert, wobei das endgültige Token mithilfe von Temperaturproben ausgewählt wird.
Geben Sie einen niedrigeren Wert für weniger zufällige Antworten und einen höheren Wert für zufälligere Antworten an.
- MAX_OUTPUT_TOKENS: Maximale Anzahl an Tokens, die in der Antwort generiert werden können. Ein Token besteht aus etwa vier Zeichen. 100 Tokens entsprechen etwa 60–80 Wörtern.
Geben Sie kürzere Werte für kürzere Antworten und höhere Werte für längere Antworten an.
- SAFETY_CATEGORY:
Die Sicherheitskategorie, für die ein Schwellenwert konfiguriert wird. Unter anderem sind folgende Werte zulässig:
Zum Maximieren von Sicherheitskategorien klicken
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD: Der Schwellenwert für das Blockieren von Antworten, die basierend auf der Wahrscheinlichkeit zur angegebenen Sicherheitskategorie gehören könnten. Unter anderem sind folgende Werte zulässig:
Zum Maximieren der Grenzwerte für die Blockierung klicken
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(Standard)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
blockiert am meisten, währendBLOCK_ONLY_HIGH
am wenigsten blockiert.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
JSON-Text anfordern:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten einen erfolgreichen Statuscode (2xx) und eine leere Antwort als Ausgabe erhalten.
Node.js
Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMÜ
Verwenden Sie die Cloud Translation API und das NMÜ-Modell zum Übersetzen von Text.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts.
- SOURCE_LANGUAGE: (Optional) der Sprachcode des Eingabetexts. Die unterstützten Sprachcodes finden Sie unter Sprachunterstützung.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll. Legen Sie einen der unterstützten Sprachcodes fest.
- SOURCE_TEXT: Zu übersetzender Text.
HTTP-Methode und URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
JSON-Text anfordern:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Python
Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
Benutzerdefinierte Übersetzungen
Passen Sie die Antworten des Übersetzungs-LLM an, indem Sie Ihre eigenen Beispielübersetzungen bereitstellen. Benutzerdefinierte Übersetzungen funktionieren nur mit dem Übersetzungs-LLM.
Sie können eine benutzerdefinierte Übersetzung über die Vertex AI Studio-Konsole oder API mit einem Unterschied anfordern. Die Console unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele in einer TMX- oder TSV-Datei bereitstellen. Die API unterstützt benutzerdefinierte Übersetzungen nur, wenn Sie Beispiele (bis zu fünf Satzpaare) inline als Teil der Übersetzungsanfrage angeben.
Datenanforderungen
Wenn Sie Beispielübersetzungen in einer Datei für die Google Cloud Console bereitstellen, müssen die Beispiele als Segmentpaare in einer TMX- oder TSV-Datei geschrieben werden. Jedes Paar enthält ein Segment der Ausgangssprache und das übersetzte Gegenstück. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Beispielübersetzungen vorbereiten.
Fügen Sie spezifische Beispiele aus einer Vielzahl von Szenarien hinzu, um möglichst genaue Ergebnisse zu erhalten. Sie müssen mindestens fünf Satzpaare, aber nicht mehr als 10.000 Paare einbeziehen. Außerdem darf ein Segmentpaar maximal 512 Zeichen lang sein.
Console
Rufen Sie im Bereich „Cloud Translation“ der Google Cloud Console die Seite Text übersetzen in Vertex AI Studio auf.
Konfigurieren Sie im Bereich Ausführungseinstellungen Ihre Übersetzungseinstellungen.
- Wählen Sie im Feld Modell die Option Übersetzungs-LLM aus.
- Wenn Sie die Temperatur ändern möchten, maximieren Sie Erweitert.
Klicken Sie auf Beispiele hinzufügen.
- Wählen Sie eine lokale Datei oder eine Datei aus Cloud Storage aus. Vertex AI Studio bestimmt die Ausgangs- und Zielsprachen anhand Ihrer Datei.
- Wählen Sie die Anzahl von Beispielen aus, die das Modell verwenden soll, bevor eine Antwort generiert wird.
Die Anzahl der ausgewählten Beispiele wird auf die Zeichenbeschränkung von 3.000 Eingabezeichen pro Anfrage angerechnet.
Geben Sie den zu übersetzenden Text in das Eingabefeld ein.
Klicken Sie auf Senden.
Cloud Translation wählt automatisch die von Ihnen angegebene Anzahl von Referenzsätzen aus, die Ihrer Eingabe am ähnlichsten sind. Das Übersetzungsmodell identifiziert Muster aus Ihren Beispielen und wendet diese Muster dann beim Generieren einer Antwort an.
Das Ausgabelimit pro Anfrage beträgt 3.000 Zeichen. Jedweder Text jenseits dieses Limits wird gelöscht.
Klicken Sie auf
Code abrufen, um den Code oder den curl-Befehl abzurufen, mit dem gezeigt wird, wie Sie Übersetzungen anfordern.
API
Wenn Sie benutzerdefinierte Übersetzungen anfordern möchten, fügen Sie Ihrer Übersetzungsanfrage bis zu fünf Referenzsatzpaare hinzu. Das Übersetzungsmodell verwendet alle diese, um Muster aus Ihren Beispielen zu identifizieren. Diese Muster werden dann beim Generieren einer Antwort angewendet.
REST
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
- PROJECT_NUMBER_OR_ID: Die numerische oder alphanumerische ID Ihres Google Cloud-Projekts
- LOCATION: Der Standort, an dem Sie diesen Vorgang ausführen möchten.
Beispiel:
us-central1
. - REFERENCE_SOURCE: Ein Satz in der Ausgangssprache, der Teil eines Referenzsatzpaars ist.
- REFERENCE_TARGET: Ein Satz in der Zielsprache, der Teil eines Referenzsatzpaars ist.
- SOURCE_LANGUAGE: Der Sprachcode des Eingabetexts.
- TARGET_LANGUAGE: die Zielsprache, in die der Eingabetext übersetzt werden soll.
- SOURCE_TEXT: Text in der Ausgangssprache, der übersetzt werden soll.
- MIME_TYPE (optional): Das Format des Quelltexts, z. B.
text/html
odertext/plain
. Standardmäßig ist der MIME-Typ auftext/plain
festgelegt.
HTTP-Methode und URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
JSON-Text anfordern:
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE" }]
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Sie sollten eine JSON-Antwort ähnlich wie diese erhalten:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Folgen Sie der Einrichtungsanleitung für Node.js in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Node.js API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Folgen Sie der Einrichtungsanleitung für Python in der Cloud Translation-Kurzanleitung zur Verwendung von Clientbibliotheken, bevor Sie dieses Beispiel anwenden. Weitere Informationen finden Sie in der Referenzdokumentation zu Cloud Translation Python API.
Richten Sie die Standardanmeldedaten für Anwendungen ein, um sich bei Cloud Translation zu authentifizieren. Weitere Informationen finden Sie unter Authentifizierung für eine lokale Entwicklungsumgebung einrichten.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Sie können die Cloud Translation API auch verwenden, um ein Dataset zu erstellen und Ihre Beispielsatzpaare zu importieren. Wenn Sie die Cloud Translation API zum Anfordern von Übersetzungen verwenden, können Sie Ihr Dataset einschließen, um Antworten anzupassen. Das Dataset bleibt bestehen und kann mit mehreren Übersetzungsanfragen wiederverwendet werden. Weitere Informationen finden Sie in der Cloud Translation-Dokumentation unter Adaptive Übersetzungen anfordern.