En esta página, se muestra cómo usar Vertex AI Studio para traducir texto rápidamente de un idioma a otro. La traducción en Vertex AI Studio ofrece la opción entre Gemini y dos modelos de traducción especializados, que incluye el modelo de traducción automática neuronal (NMT) de Cloud Translation y un LLM ajustado para traducciones (también llamado LLM de traducción).
Cuando usas el LLM de traducción, puedes adaptar las respuestas proporcionando traducciones de ejemplo para que coincidan más con tu estilo, tono y dominio de la industria. El modelo usa tus ejemplos como contexto de pocas imágenes antes de traducir tu texto. En Vertex AI Studio, esta personalización solo funciona con el LLM de traducción. Por ejemplo, no puedes pasar ejemplos cuando usas Gemini o el modelo de NMT.
Lenguajes compatibles
Los idiomas que admite cada modelo pueden variar. Antes de solicitar traducción, verifica que el modelo que usas admita los idiomas de origen y objetivo.
LLM de traducción
Para el LLM de traducción, puedes traducir desde y hacia cualquiera de los siguientes pares de idiomas:
- Árabe <-> Inglés
- Chino (simplificado) <-> Inglés
- Checo <-> Inglés
- Holandés <-> Inglés
- Francés <-> Inglés
- Alemán <-> Inglés
- Hindi <-> Inglés
- Indonesio <-> Inglés
- Italiano <-> Inglés
- Japonés <-> Inglés
- Coreano <-> Inglés
- Polaco <-> Inglés
- Portugués <-> Inglés
- Ruso <-> Inglés
- Español <-> Inglés
- Tailandés <-> Inglés
- Turco <-> Inglés
- Ucraniano <-> Inglés
- Vietnamita <-> Inglés
Gemini y NMT
Para obtener información sobre los idiomas que admiten Gemini y el modelo de NMT, consulta la siguiente documentación:
- Compatibilidad con los lenguajes de los modelos de base de Google
- Compatibilidad con idiomas del modelo de NMT de Translation
Traduce texto
Usa el LLM de traducción, Gemini o el modelo de NMT para traducir texto con la consola o la API de Google Cloud.
Console
En la sección Cloud Translation de la consola de Google Cloud, ve a la página Translate text en Vertex AI Studio.
En el panel Run settings, selecciona un modelo de traducción en el campo Model.
Para cambiar la configuración del modelo (como la temperatura), expande Configuración avanzada.
Establece los idiomas de origen y de destino.
En el campo de entrada, ingresa el texto que quieres traducir.
Haz clic en Enviar.
Para obtener el código o el comando curl que muestra cómo solicitar traducciones, haz clic en
Obtener código.
API
Selecciona el modelo que quieres usar para tus traducciones.
LLM de traducción
Usa la API de Vertex AI y el LLM de traducción para traducir texto.
REST
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_NUMBER_OR_ID: el ID numérico o alfanumérico del proyecto de Google Cloud
- LOCATION: Es la ubicación en la que deseas ejecutar esta operación.
Por ejemplo,
us-central1
- SOURCE_LANGUAGE_CODE: El código de idioma del documento de entrada. Establece uno de los códigos de idioma que se indican en traducción adaptable.
- TARGET_LANGUAGE_CODE: el idioma de destino al que se traducirá el texto de entrada. Establece uno de los códigos de idioma que se indican en traducción adaptable.
- SOURCE_TEXT: Texto en el idioma de origen que se debe traducir.
- MIME_TYPE (opcional): Es el formato del texto fuente, como
text/html
otext/plain
. De forma predeterminada, el tipo MIME se establece entext/plain
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict
Cuerpo JSON de la solicitud:
"instances": [{ "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE", "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE", "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }]
Para enviar tu solicitud, expande una de estas opciones:
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Node.js.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
async function translate() { const request = { instances: [{ source_language_code: SOURCE_LANGUAGE_CODE, target_language_code: TARGET_LANGUAGE_CODE, contents: [SOURCE_TEXT], model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Python.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text') # Initialize the request instances=[{ "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE', "contents": ["SOURCE_TEXT"], "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm" }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
Gemini
Usar la API de Vertex AI y Gemini para traducir texto
Puedes personalizar aún más las respuestas de Gemini a través de instrucciones abiertas y de ingeniería de instrucciones.
REST
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_NUMBER_OR_ID: el ID numérico o alfanumérico del proyecto de Google Cloud.
- LOCATION: Es la ubicación para procesar la solicitud. Las opciones disponibles incluyen las siguientes:
Haz clic para expandir una lista parcial de regiones disponibles
us-central1
us-west4
northamerica-northeast1
us-east4
us-west1
asia-northeast3
asia-southeast1
asia-northeast1
- MODEL_ID: Es el ID del modelo, como
gemini-1.0-pro-002
. - SOURCE_LANGUAGE_CODE: Es el idioma del texto de entrada.
- TARGET_LANGUAGE_CODE: el idioma de destino al que se traducirá el texto de entrada.
- SOURCE_TEXT: Texto que se va a traducir.
- TEMPERATURE:
La temperatura se usa para las muestras durante la generación de respuesta, que se genera cuando se aplican
topP
ytopK
. La temperatura controla el grado de aleatoriedad en la selección de tokens. Las temperaturas más bajas son buenas para los mensajes que requieren una respuesta menos abierta o de creativa, mientras que las temperaturas más altas pueden generar resultados más diversos o creativos. Una temperatura de0
significa que siempre se seleccionan los tokens de probabilidad más alta. En este caso, las respuestas para un mensaje determinado son, en su mayoría, deterministas, pero es posible que haya una pequeña cantidad de variación.Si el modelo muestra una respuesta demasiado genérica, demasiado corta o el modelo proporciona una respuesta de resguardo, intenta aumentar la temperatura.
- TOP_P:
Top-P cambia la manera en la que el modelo selecciona los tokens para el resultado. Los tokens se seleccionan del más (consulta top-K) al menos probable, hasta que la suma de sus probabilidades sea igual al valor de P superior. Por ejemplo, si los tokens A, B y C tienen una probabilidad de 0.3, 0.2 y 0.1, y el valor P superior es
0.5
, el modelo elegirá A o B como el siguiente token mediante la temperatura y excluirá a C como candidato.Especifica un valor más bajo para respuestas menos aleatorias y un valor más alto para respuestas más aleatorias.
- TOP_K:
El parámetro Top-K cambia la manera en la que el modelo selecciona los tokens para el resultado. Un top-K de
1
significa que el siguiente token seleccionado es el más probable entre todos los tokens en el vocabulario del modelo (también llamado decodificación codiciosa), mientras que un top-K de3
significa que el siguiente token se selecciona de los tres tokens más probables con la temperatura.Para cada paso de selección de tokens, se muestran los tokens de K superior con las probabilidades más altas. Luego, los tokens se filtran según el superior con el token final seleccionado mediante el muestreo de temperatura.
Especifica un valor más bajo para respuestas menos aleatorias y un valor más alto para respuestas más aleatorias.
- MAX_OUTPUT_TOKENS:
Cantidad máxima de tokens que se pueden generar en la respuesta. Un token tiene casi cuatro caracteres. 100 tokens corresponden a casi 60 u 80 palabras.
Especifica un valor más bajo para las respuestas más cortas y un valor más alto para las respuestas potencialmente más largas.
- SAFETY_CATEGORY:
La categoría de seguridad para la que se configura un umbral. Los valores aceptables son los siguientes:
Haz clic para expandir las categorías de seguridad
HARM_CATEGORY_SEXUALLY_EXPLICIT
HARM_CATEGORY_HATE_SPEECH
HARM_CATEGORY_HARASSMENT
HARM_CATEGORY_DANGEROUS_CONTENT
- THRESHOLD:
El umbral para bloquear respuestas que podrían pertenecer a la categoría de seguridad especificada según la probabilidad. Los valores aceptables son los siguientes:
Haz clic para expandir los umbrales de bloqueo
BLOCK_NONE
BLOCK_ONLY_HIGH
BLOCK_MEDIUM_AND_ABOVE
(predeterminada)BLOCK_LOW_AND_ABOVE
BLOCK_LOW_AND_ABOVE
bloquea más, mientras queBLOCK_ONLY_HIGH
bloquea menos.
HTTP method and URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent
Cuerpo JSON de la solicitud:
{ "contents": [ { "role": "user", "parts": [ { "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:" } ] } ], "generation_config": { "temperature": TEMPERATURE, "topP": TOP_P, "topK": TOP_K, "candidateCount": 1, "maxOutputTokens": MAX_OUTPUT_TOKENS } "safetySettings": [ { "category": "SAFETY_CATEGORY", "threshold": "THRESHOLD" } ] }
Para enviar tu solicitud, expande una de estas opciones:
Deberías recibir un código de estado exitoso (2xx) y una respuesta vacía.
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Node.js.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
const {VertexAI} = require('@google-cloud/vertexai'); // Initialize Vertex with your Cloud project and location const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'}); const model = 'gemini-1.0-pro'; // Instantiate the models const generativeModel = vertex_ai.preview.getGenerativeModel({ model: model, generationConfig: { 'candidate_count': 1, 'max_output_tokens': MAX_OUTPUT_TOKENS, 'temperature': TEMPERATURE, 'top_p': TOP_P, 'top_k': TOP_K, }, safetySettings: [ { 'category': 'HARM_CATEGORY_HATE_SPEECH', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_DANGEROUS_CONTENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' }, { 'category': 'HARM_CATEGORY_HARASSMENT', 'threshold': 'BLOCK_MEDIUM_AND_ABOVE' } ], }); async function generateContent() { const req = { contents: [ {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:`}]} ], }; const streamingResp = await generativeModel.generateContentStream(req); for await (const item of streamingResp.stream) { process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n'); } process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response)); } generateContent();
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Python.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
import base64 import vertexai from vertexai.generative_models import GenerativeModel, Part, FinishReason import vertexai.preview.generative_models as generative_models def generate(): vertexai.init(project="PROJECT_ID", location="LOCATION") model = GenerativeModel("gemini-1.0-pro") responses = model.generate_content( ["""SOURCE_LANGUAGE_CODE: TEXT TARGET_LANGUAGE_CODE:"""], generation_config=generation_config, safety_settings=safety_settings, ) print(responses) generation_config = { "candidate_count": 1, "max_output_tokens": MAX_OUTPUT_TOKENS, "temperature": TEMPERATURE, "top_p": TOP_P, "top_k": TOP_K, } safety_settings = { generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE, } generate()
NMT
Usa la API de Cloud Translation y el modelo de NMT para traducir texto.
REST
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_NUMBER_OR_ID: el ID numérico o alfanumérico del proyecto de Google Cloud.
- SOURCE_LANGUAGE: el código de idioma del texto de entrada (opcional) Para conocer los códigos de los idiomas admitidos, consulta Idiomas admitidos.
- TARGET_LANGUAGE: el idioma de destino al que se traducirá el texto de entrada. Establece uno de los códigos de idioma admitidos.
- SOURCE_TEXT: Texto que se va a traducir.
Método HTTP y URL:
POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText
Cuerpo JSON de la solicitud:
{ "sourceLanguageCode": "SOURCE_LANGUAGE", "targetLanguageCode": "TARGET_LANGUAGE", "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"] }
Para enviar tu solicitud, expande una de estas opciones:
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT1" }, { "translatedText": "TRANSLATED_TEXT2" } ] }
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Node.js.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Python.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
Traducciones personalizadas
Proporciona tus propias traducciones de ejemplo para personalizar las respuestas del LLM de traducción. Las traducciones personalizadas solo funcionan con el LLM de traducción.
Puedes solicitar una traducción personalizada a través de la consola o la API de Vertex AI Studio con una diferencia. La consola admite traducciones personalizadas solo cuando proporcionas ejemplos en un archivo TMX o TSV. La API admite traducciones personalizadas solo cuando proporcionas ejemplos (hasta 5 pares de oraciones) intercalados como parte de la solicitud de traducción.
Requisitos de los datos
Si proporcionas traducciones de ejemplo en un archivo para la consola de Google Cloud, los ejemplos deben escribirse como pares de segmentos en un archivo TMX o TSV. Cada par incluye un segmento en el idioma de origen y su contraparte traducida. Para obtener más información, consulta Prepara traducciones de ejemplo en la documentación de Cloud Translation.
Para obtener los resultados más precisos, incluye ejemplos específicos de una amplia variedad de situaciones. Debes incluir al menos cinco pares de oraciones, pero no más de 10,000. Además, un par de segmentos puede tener un máximo de 512 caracteres.
Console
En la sección Cloud Translation de la consola de Google Cloud, ve a la página Translate text en Vertex AI Studio.
En el panel Run settings, configura la configuración de traducción.
- En el campo Model, selecciona Translation LLM.
- Para cambiar la temperatura, expande Configuración avanzada.
Haz clic en Agregar ejemplos.
- Selecciona un archivo local o de Cloud Storage. Vertex AI Studio determina los idiomas de origen y destino de tu archivo.
- Selecciona la cantidad de ejemplos que el modelo usará antes de generar una respuesta.
La cantidad de ejemplos que selecciones se considera en el límite de caracteres de entrada por solicitud de 3,000.
En el campo de entrada, ingresa el texto que quieres traducir.
Haz clic en Enviar.
Cloud Translation selecciona automáticamente la cantidad especificada de oraciones de referencia que son más similares a tu entrada. El modelo de traducción identifica patrones a partir de tus ejemplos y, luego, los aplica cuando genera una respuesta.
El límite de salida por solicitud es de 3,000 caracteres. Se descarta cualquier texto que supere este límite.
Para obtener el código o el comando curl que muestra cómo solicitar traducciones, haz clic en
Obtener código.
API
Para solicitar traducciones personalizadas, incluye hasta cinco pares de oraciones de referencia en tu solicitud de traducción. El modelo de traducción los usa todos para identificar patrones de tus ejemplos y, luego, aplicarlos cuando genera una respuesta.
REST
Antes de usar cualquiera de los datos de solicitud a continuación, realiza los siguientes reemplazos:
- PROJECT_NUMBER_OR_ID: el ID numérico o alfanumérico del proyecto de Google Cloud
- LOCATION: Es la ubicación en la que deseas ejecutar esta operación.
Por ejemplo,
us-central1
- REFERENCE_SOURCE: Es una oración en el idioma de origen que forma parte de un par de oraciones de referencia.
- REFERENCE_TARGET: Es una oración en el idioma de destino que forma parte de un par de oraciones de referencia.
- SOURCE_LANGUAGE: El código de idioma del documento de entrada.
- TARGET_LANGUAGE: el idioma de destino al que se traducirá el texto de entrada.
- SOURCE_TEXT: Texto en el idioma de origen que se debe traducir.
- MIME_TYPE (opcional): Es el formato del texto fuente, como
text/html
otext/plain
. De forma predeterminada, el tipo MIME se establece entext/plain
.
Método HTTP y URL:
POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict
Cuerpo JSON de la solicitud:
"instances": [{ "reference_sentence_config": { "reference_sentence_pair_lists": [ { "reference_sentence_pairs": [{ "source_sentence": "REFERENCE_SOURCE_1_1", "target_sentence": "REFERENCE_TARGET_1_1" }, { "source_sentence": "REFERENCE_SOURCE_1_2", "target_sentence": "REFERENCE_SOURCE_1_2" }] } ], "source_language_code": "SOURCE_LANGUAGE_CODE", "target_language_code": "TARGET_LANGUAGE_CODE" }, "contents": ["SOURCE_TEXT"], "mimeType": "MIME_TYPE" }]
Para enviar tu solicitud, expande una de estas opciones:
Deberías recibir una respuesta JSON similar a la que se muestra a continuación:
{ "translations": [ { "translatedText": "TRANSLATED_TEXT" } ], "languageCode": "TARGET_LANGUAGE" }
Node.js
Antes de probar este ejemplo, sigue las instrucciones de configuración para Node.js que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Node.js.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
async function translate() { const request = { instances: [{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] }; const {google} = require('googleapis'); const aiplatform = google.cloud('aiplatform'); const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm'); const [response] = await endpoint.predict(request) console.log('Translating') console.log(response) }
Python
Antes de probar este ejemplo, sigue las instrucciones de configuración para Python que encontrarás en la guía de inicio rápido de Cloud Translation sobre las bibliotecas cliente. Si deseas obtener más información, consulta la documentación de referencia de la API de Cloud Storage Python.
Para autenticarte en Cloud Translation, configura las credenciales predeterminadas de la aplicación. Si deseas obtener más información, consulta Configura la autenticación para un entorno de desarrollo local.
from google.cloud import aiplatform def translate(): # Create a client endpoint = aiplatform.Endpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm') # Initialize the request instances=[{ "reference_sentence_config": { "reference_sentence_pair_lists": [{ "reference_sentence_pairs": [{ "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1', "target_sentence": 'SAMPLE_REFERENCE_TARGET_1' }, "reference_sentence_pairs": { "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2', "target_sentence": 'SAMPLE_REFERENCE_TARGET_2' }] }], "source_language_code": 'SOURCE_LANGUAGE_CODE', "target_language_code": 'TARGET_LANGUAGE_CODE' }, "contents": ["SOURCE_TEXT"] }] # Make the request response = endpoint.predict(instances=instances) # Handle the response print(response)
También puedes usar la API de Cloud Translation para crear un conjunto de datos y importar tus parejas de oraciones de ejemplo. Cuando usas la API de Cloud Translation para solicitar traducciones, puedes incluir tu conjunto de datos para personalizar las respuestas. El conjunto de datos persiste y se puede volver a usar con varias solicitudes de traducción. Para obtener más información, consulta Cómo solicitar traducciones adaptables en la documentación de Cloud Translation.