Traduci testo

Per le attività di traduzione, l'IA generativa su Vertex AI offre la scelta tra i modelli Gemini e due modelli di traduzione specializzati dell'API Cloud Translation:

  • Modello LLM per le traduzioni: la più recente offerta di traduzione in stile LLM di Google, di altissima qualità. Raggiunge la massima qualità di traduzione con latenze ragionevoli (~3 volte più veloce di Gemini 2.0 Flash).

  • Modello di traduzione automatica neurale (NMT) di Cloud Translation: la traduzione in tempo reale di Google migliore, che consente di ottenere traduzioni con una latenza di circa 100 ms. Raggiunge la qualità più elevata di tutti i modelli sottoposti a benchmarking con latenze paragonabili e continua a registrare progressi continui in termini di qualità. L'NMT può raggiungere latenze fino a 20 volte più rapide rispetto a Gemini 2.0 Flash.

Vantaggi e fattori di differenziazione principali dell'LLM per la traduzione

  • Qualità di traduzione senza precedenti: il modello LLM di traduzione offre la massima qualità di traduzione, ottenendo prestazioni significativamente superiori sui benchmark rispetto ad altri modelli sottoposti a benchmarking. L'LLM per la traduzione ha molto più probabilità di riscrivere in modo significativo una frase per renderla più naturale nella lingua di destinazione, anziché fornire traduzioni "letterali" meno naturali che si trovano spesso in altri modelli di traduzione.
  • Compromesso qualità/latenza superiore: l'LLM per le traduzioni fornisce traduzioni basate su LLM con latenze notevolmente inferiori a quelle di Gemini 2.0 Flash. Sebbene l'LLM di traduzione abbia latitudini superiori rispetto al modello NMT, in genere fornisce risposte di qualità superiore per un'ampia gamma di applicazioni.

Confronto delle funzionalità dei modelli

Funzionalità LLM di traduzione (basato su Gemini) Modello NMT
Descrizione Un modello linguistico di grandi dimensioni (LLM) specializzato nella traduzione basato su Gemini, ottimizzato per la traduzione. Disponibile con l'IA generativa su Vertex AI e l'API Cloud Translation - Advanced. Il modello di traduzione automatica neurale di Google, disponibile tramite le API Cloud Translation - Advanced e Cloud Translation - Basic . Ottimizzato per semplicità e scalabilità.
Qualità Traduzione di massima qualità. Offre una qualità superiore a NMT, Gemini 2.0 Flash e Gemini 2.5 Pro Experimental. È più probabile che riscrivi le frasi per ottenere un flusso naturale. Mostra una riduzione significativa degli errori. Qualità da media ad alta a seconda della coppia di lingue. Tra i modelli di MT in tempo reale con il rendimento migliore per molte combinazioni di lingue e domini.
Latenza La latenza è notevolmente migliore rispetto a Gemini 2.0 Flash, ma è ancora più lenta rispetto all'NMT. Traduzione in tempo reale più veloce. Bassa latenza, adatta per chat e applicazioni in tempo reale. Raggiunge latenze fino a 20 volte più veloci rispetto a Gemini 2.0 Flash
Supporto dei linguaggi Supporta 19 lingue. L'elenco delle lingue include arabo, cinese, ceco, coreano, francese, giapponese, hindi, indonesiano, inglese, italiano, olandese, polacco, portoghese, russo, spagnolo, tedesco, thailandese, turco, ucraino e vietnamita. Ad aprile 2025 verrà implementata un'espansione significativa delle lingue. Supporta 189 lingue, tra cui cantonese, figiano e balinese. Sono possibili traduzioni da qualsiasi lingua a qualsiasi altra nell'elenco supportato.
Personalizzazione Supporto per: glossari avanzati, ottimizzazione fine supervisionata su Vertex AI per adattamenti specifici per dominio/cliente, traduzione adattiva per la personalizzazione dello stile in tempo reale con alcuni esempi. Supporto di glossari per controllare la terminologia e modelli personalizzati di addestramento con AutoML Translation nell'API Cloud Translation Advanced.
Funzionalità di traduzione Traduzione dell'HTML HTML, traduzione batch e di documenti formattati
Integrazione API Cloud Translation - API Advanced, API Vertex AI Cloud Translation - API di base, Cloud Translation - API avanzata, API Vertex AI

Utilizzo

Questa sezione mostra come utilizzare Vertex AI Studio per tradurre rapidamente il testo da una lingua all'altra. Puoi utilizzare il modello linguistico di grandi dimensioni per la traduzione, Gemini o il modello di traduzione automatica neurale per tradurre il testo utilizzando la console o l'API Google Cloud. Tieni presente che le lingue supportate da ciascun modello possono variare. Prima di richiedere le traduzioni, controlla che il modello che utilizzi supporti le lingue di origine e di destinazione.

Console

  1. Nella sezione Vertex AI della console Google Cloud, vai alla pagina Traduci testo in Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Nel riquadro Impostazioni esecuzione, seleziona un modello di traduzione nel campo Modello.

  3. Per modificare le impostazioni del modello (ad esempio la temperatura), espandi Avanzate.

  4. Imposta le lingue di origine e di destinazione.

  5. Inserisci il testo da tradurre nel campo di immissione.

  6. Fai clic su Invia.

  7. Per ottenere il codice o il comando cURL che mostra come richiedere le traduzioni, fai clic su Genera codice.

Tieni presente che in Vertex AI Studio, l'LLM di traduzione ti consente di fornire traduzioni di esempio per personalizzare le risposte del modello in modo che corrispondano più da vicino al tuo stile, al tuo tono e al tuo dominio di settore. Il modello utilizza i tuoi esempi come contesto con pochi esempi prima di tradurre il testo.

API

Seleziona il modello da utilizzare per le traduzioni.

LLM di traduzione

Utilizza l'API Vertex AI e il modello LLM di traduzione per tradurre il testo.

REST

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del progetto Google Cloud
  • LOCATION: la posizione in cui vuoi eseguire questa operazione. Ad esempio, us-central1.
  • SOURCE_LANGUAGE_CODE: il codice lingua del testo di input. Impostato su uno dei codici lingua elencati nella traduzione adattiva.
  • TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo inserito. Impostato su uno dei codici lingua elencati nella traduzione adattiva.
  • SOURCE_TEXT: il testo nella lingua di origine da tradurre.
  • MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio text/html o text/plain. Per impostazione predefinita, il tipo MIME è impostato su text/plain.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text:predict

Corpo JSON della richiesta:

{
  "instances": [
    {
      "source_language_code": "SOURCE_LANGUAGE_CODE",
      "target_language_code": "TARGET_LANGUAGE_CODE",
      "contents": [
        "SOURCE_TEXT"
      ],
      "mimeType": "MIME_TYPE",
      "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
    }
  ]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "predictions": [
    {
      "translations": [
        {
          "translatedText": "TRANSLATED_TEXT",
          "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
        }
      ]
    }
  ]
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

async function translate() {
  const request = {
    instances: [{
      source_language_code: SOURCE_LANGUAGE_CODE,
      target_language_code: TARGET_LANGUAGE_CODE,
      contents: [SOURCE_TEXT],
      model: "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm"
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
      

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from google.cloud import aiplatform

def translate():
  # Create a client
  client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"}
  client = aiplatform.gapic.PredictionServiceClient(client_options=client_options)
  
  # Initialize the request
  endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/cloud-translate-text"
  instances=[{
    "model": "projects/PROJECT_ID/locations/LOCATION/models/general/translation-llm",
    "source_language_code": 'SOURCE_LANGUAGE_CODE',
    "target_language_code": 'TARGET_LANGUAGE_CODE',
    "contents": ["SOURCE_TEXT"],
  }]

  # Make the request
  response = client.predict(instances=instances, endpoint=endpoint_id)
  # Handle the response
  print(response)
      

Gemini

Utilizza l'API Vertex AI e Gemini per tradurre il testo.

Puoi personalizzare ulteriormente le risposte di Gemini tramite prompt aperti e progettazione di prompt.

REST

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
  • LOCATION: la località in cui elaborare la richiesta. Le opzioni disponibili includono:

    Fai clic per espandere un elenco parziale delle regioni disponibili

    • us-central1
    • us-west4
    • northamerica-northeast1
    • us-east4
    • us-west1
    • asia-northeast3
    • asia-southeast1
    • asia-northeast1
  • MODEL_ID: l'ID del modello, ad esempio gemini-1.0-pro-002
  • SOURCE_LANGUAGE_CODE: la lingua del testo di input.
  • TARGET_LANGUAGE_CODE: la lingua di destinazione in cui tradurre il testo inserito.
  • SOURCE_TEXT: il testo da tradurre.
  • TEMPERATURE: la temperatura viene utilizzata per il campionamento durante la generazione della risposta, che si verifica quando vengono applicati topP e topK. La temperatura controlla il grado di casualità nella selezione dei token. Le temperature più basse sono ideali per prompt che richiedono risposte meno aperte o creative, mentre le temperature più alte possono portare a risultati più diversificati o creativi. Con una temperatura pari a 0 viene sempre selezionato il token con la probabilità più alta. In questo caso, le risposte per un determinato prompt sono per lo più deterministiche, ma è comunque possibile una piccola variazione.

    Se il modello restituisce una risposta troppo generica, troppo breve o fornisce una risposta di riserva, prova ad aumentare la temperatura.

  • TOP_P: Top-P cambia il modo in cui il modello seleziona i token per l'output. I token vengono selezionati dal più probabile (vedi Top-K) al meno probabile finché la somma delle loro probabilità non corrisponde al valore di Top-P. Ad esempio, se i token A, B e C hanno una probabilità di 0,3, 0,2 e 0,1 e il valore di top-P è 0.5, il modello seleziona A o B come token successivo utilizzando la temperatura ed esclude C come candidato.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali.

  • TOP_K: Top-K cambia il modo in cui il modello seleziona i token per l'output. Un top-K pari a 1 indica che il token successivo selezionato è il più probabile tra tutti i token nel vocabolario del modello (chiamato anche decodifica greedy). Un top-K pari a 3 indica invece che il token successivo viene selezionato tra i tre token più probabili utilizzando la temperatura.

    Per ogni fase di selezione dei token, vengono campionati i token Top-K con le probabilità più elevate. Quindi i token vengono ulteriormente filtrati in base a Top-P e il token finale viene selezionato utilizzando il campionamento con temperatura.

    Specifica un valore più basso per risposte meno casuali e un valore più alto per risposte più casuali.

  • MAX_OUTPUT_TOKENS: numero massimo di token che possono essere generati nella risposta. Un token equivale a circa quattro caratteri. 100 token corrispondono a circa 60-80 parole.

    Specifica un valore più basso per risposte più brevi e un valore più alto per risposte potenzialmente più lunghe.

  • SAFETY_CATEGORY: la categoria di sicurezza per la quale configurare una soglia. I valori accettati sono:

    Fai clic per espandere le categorie di sicurezza

    • HARM_CATEGORY_SEXUALLY_EXPLICIT
    • HARM_CATEGORY_HATE_SPEECH
    • HARM_CATEGORY_HARASSMENT
    • HARM_CATEGORY_DANGEROUS_CONTENT
  • THRESHOLD: la soglia per bloccare le risposte che potrebbero appartenere alla categoria di sicurezza specificata in base alla probabilità. I valori accettati sono:

    Fai clic per espandere le soglie di blocco

    • BLOCK_NONE
    • BLOCK_ONLY_HIGH
    • BLOCK_MEDIUM_AND_ABOVE (valore predefinito)
    • BLOCK_LOW_AND_ABOVE
    BLOCK_LOW_AND_ABOVE blocca di più, mentre BLOCK_ONLY_HIGH blocca di meno.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/MODEL_ID:streamGenerateContent

Corpo JSON della richiesta:

{
  "contents": [
    {
      "role": "user",
      "parts": [
        {
        "text": "SOURCE_LANGUAGE_CODE: SOURCE_TEXT\nTARGET_LANGUAGE_CODE:"
        }
      ]
    }
  ],
  "generation_config": {
    "temperature": TEMPERATURE,
    "topP": TOP_P,
    "topK": TOP_K,
    "candidateCount": 1,
    "maxOutputTokens": MAX_OUTPUT_TOKENS
  }
  "safetySettings": [
    {
      "category": "SAFETY_CATEGORY",
      "threshold": "THRESHOLD"
    }
  ]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere un codice di stato di operazione riuscita (2xx) e una risposta vuota.

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

const {VertexAI} = require('@google-cloud/vertexai');

// Initialize Vertex with your Cloud project and location
const vertex_ai = new VertexAI({project: 'PROJECT_ID', location: 'LOCATION'});
const model = 'gemini-1.0-pro';

// Instantiate the models
const generativeModel = vertex_ai.preview.getGenerativeModel({
  model: model,
  generationConfig: {
    'candidate_count': 1,
    'max_output_tokens': MAX_OUTPUT_TOKENS,
    'temperature': TEMPERATURE,
    'top_p': TOP_P,
    'top_k': TOP_K,
  },
  safetySettings: [
    {
        'category': 'HARM_CATEGORY_HATE_SPEECH',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_DANGEROUS_CONTENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_SEXUALLY_EXPLICIT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    },
    {
        'category': 'HARM_CATEGORY_HARASSMENT',
        'threshold': 'BLOCK_MEDIUM_AND_ABOVE'
    }
  ],
});


async function generateContent() {
  const req = {
    contents: [
      {role: 'user', parts: [{text: `SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:`}]}
    ],
  };

  const streamingResp = await generativeModel.generateContentStream(req);

  for await (const item of streamingResp.stream) {
    process.stdout.write('stream chunk: ' + JSON.stringify(item) + '\n');
  }

  process.stdout.write('aggregated response: ' + JSON.stringify(await streamingResp.response));
}

generateContent();
      

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

import base64
import vertexai
from vertexai.generative_models import GenerativeModel, Part, FinishReason
import vertexai.preview.generative_models as generative_models

def generate():
  vertexai.init(project="PROJECT_ID", location="LOCATION")
  model = GenerativeModel("gemini-1.0-pro")
  responses = model.generate_content(
      ["""SOURCE_LANGUAGE_CODE: TEXT
TARGET_LANGUAGE_CODE:"""],
      generation_config=generation_config,
      safety_settings=safety_settings,
  )

  print(responses)


generation_config = {
    "candidate_count": 1,
    "max_output_tokens": MAX_OUTPUT_TOKENS,
    "temperature": TEMPERATURE,
    "top_p": TOP_P,
    "top_k": TOP_K,
}

safety_settings = {
    generative_models.HarmCategory.HARM_CATEGORY_HATE_SPEECH: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_DANGEROUS_CONTENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_SEXUALLY_EXPLICIT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
    generative_models.HarmCategory.HARM_CATEGORY_HARASSMENT: generative_models.HarmBlockThreshold.BLOCK_MEDIUM_AND_ABOVE,
}

generate()
      

NMT

Utilizza l'API Cloud Translation e il modello NMT per tradurre il testo.

REST

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del tuo progetto Google Cloud.
  • SOURCE_LANGUAGE: (Facoltativo) il codice lingua del testo inserito. Per i codici lingua supportati, consulta Supporto delle lingue.
  • TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo inserito. Impostato su uno dei codici lingua supportati.
  • SOURCE_TEXT: il testo da tradurre.

Metodo HTTP e URL:

POST https://translation.googleapis.com/v3/projects/PROJECT_ID:translateText

Corpo JSON della richiesta:

{
  "sourceLanguageCode": "SOURCE_LANGUAGE",
  "targetLanguageCode": "TARGET_LANGUAGE",
  "contents": ["SOURCE_TEXT1", "SOURCE_TEXT2"]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "translations": [
    {
      "translatedText": "TRANSLATED_TEXT1"
    },
    {
      "translatedText": "TRANSLATED_TEXT2"
    }
  ]
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

/**
 * TODO(developer): Uncomment these variables before running the sample.
 */
// const projectId = 'YOUR_PROJECT_ID';
// const location = 'global';
// const text = 'text to translate';

// Imports the Google Cloud Translation library
const {TranslationServiceClient} = require('@google-cloud/translate');

// Instantiates a client
const translationClient = new TranslationServiceClient();

async function translateText() {
  // Construct request
  const request = {
    parent: `projects/${projectId}/locations/${location}`,
    contents: [text],
    mimeType: 'text/plain', // mime types: text/plain, text/html
    sourceLanguageCode: 'en',
    targetLanguageCode: 'sr-Latn',
  };

  // Run request
  const [response] = await translationClient.translateText(request);

  for (const translation of response.translations) {
    console.log(`Translation: ${translation.translatedText}`);
  }
}

translateText();

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

import os

# Import the Google Cloud Translation library.
from google.cloud import translate_v3

PROJECT_ID = os.environ.get("GOOGLE_CLOUD_PROJECT")


def translate_text(
    text: str = "YOUR_TEXT_TO_TRANSLATE",
    source_language_code: str = "en-US",
    target_language_code: str = "fr",
) -> translate_v3.TranslationServiceClient:
    """Translate Text from a Source language to a Target language.
    Args:
        text: The content to translate.
        source_language_code: The code of the source language.
        target_language_code: The code of the target language.
            For example: "fr" for French, "es" for Spanish, etc.
            Find available languages and codes here:
            https://cloud.google.com/translate/docs/languages#neural_machine_translation_model
    """

    # Initialize Translation client.
    client = translate_v3.TranslationServiceClient()
    parent = f"projects/{PROJECT_ID}/locations/global"

    # MIME type of the content to translate.
    # Supported MIME types:
    # https://cloud.google.com/translate/docs/supported-formats
    mime_type = "text/plain"

    # Translate text from the source to the target language.
    response = client.translate_text(
        contents=[text],
        parent=parent,
        mime_type=mime_type,
        source_language_code=source_language_code,
        target_language_code=target_language_code,
    )

    # Display the translation for the text.
    # For example, for "Hello! How are you doing today?":
    # Translated text: Bonjour comment vas-tu aujourd'hui?
    for translation in response.translations:
        print(f"Translated text: {translation.translated_text}")

    return response

Traduzioni personalizzate

Personalizza le risposte dell'LLM di traduzione fornendo le tue traduzioni di esempio. Le traduzioni personalizzate funzionano solo con il modello LLM di traduzione.

Puoi richiedere una traduzione personalizzata tramite la console o l'API Vertex AI Studio con una differenza. La console supporta le traduzioni personalizzate solo se fornisci esempi in un file TMX o TSV. L'API supporta le traduzioni personalizzate solo se fornisci esempi (fino a 5 coppie di frasi) in linea come parte della richiesta di traduzione.

Requisiti dei dati

Se fornisci traduzioni di esempio in un file per la console Google Cloud, gli esempi devono essere scritti come coppie di segmenti in un file TMX o TSV. Ogni coppia include un segmento nella lingua di origine e la sua controparte tradotta. Per ulteriori informazioni, consulta Preparare esempi di traduzione nella documentazione di Cloud Translation.

Per ottenere risultati più precisi, includi esempi specifici di una vasta gamma di scenari. Devi includere almeno cinque coppie di frasi,ma non più di 10.000 coppie. Inoltre, una coppia di segmenti può contenere al massimo 512 caratteri.

Console

  1. Nella sezione Vertex AI della console Google Cloud, vai alla pagina Traduci testo in Vertex AI Studio.

    Vai a Vertex AI Studio

  2. Nel riquadro Impostazioni esecuzione, configura le impostazioni di traduzione.

    1. Nel campo Modello, seleziona Traduzione LLM.
    2. Per modificare la temperatura, espandi Avanzate.
  3. Fai clic su Aggiungi esempi.

    1. Seleziona un file locale o un file da Cloud Storage. Vertex AI Studio determina le lingue di origine e di destinazione del file.
    2. Seleziona il numero di esempi da utilizzare dal modello prima di generare una risposta.

    Il numero di esempi selezionati viene conteggiato ai fini del limite di caratteri per richiesta di 3000.

  4. Inserisci il testo da tradurre nel campo di immissione.

  5. Fai clic su Invia.

    Vertex AI seleziona automaticamente il numero specificato di frasi di riferimento più simili all'input. Il modello di traduzione identifica gli schemi dai tuoi esempi e poi li applica quando genera una risposta.

    Il limite di output per richiesta è di 3000 caratteri. Qualsiasi testo che supera questo limite viene ignorato.

  6. Per ottenere il codice o il comando cURL che mostra come richiedere le traduzioni, fai clic su Genera codice.

API

Per richiedere traduzioni personalizzate, includi fino a cinque coppie di frasi di riferimento nella richiesta di traduzione. Il modello di traduzione li utilizza tutti per identificare i pattern dagli esempi e poi li applica durante la generazione di una risposta.

REST

Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:

  • PROJECT_NUMBER_OR_ID: l'ID numerico o alfanumerico del progetto Google Cloud
  • LOCATION: la posizione in cui vuoi eseguire questa operazione. Ad esempio, us-central1.
  • REFERENCE_SOURCE: una frase nella lingua di origine che fa parte di una coppia di frasi di riferimento.
  • REFERENCE_TARGET: una frase nella lingua di destinazione che fa parte di una coppia di frasi di riferimento.
  • SOURCE_LANGUAGE: il codice lingua del testo di input.
  • TARGET_LANGUAGE: la lingua di destinazione in cui tradurre il testo inserito.
  • SOURCE_TEXT: il testo nella lingua di origine da tradurre.
  • MIME_TYPE (Facoltativo): il formato del testo di origine, ad esempio text/html o text/plain. Per impostazione predefinita, il tipo MIME è impostato su text/plain.

Metodo HTTP e URL:

POST https://LOCATION-aiplatform.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm:predict

Corpo JSON della richiesta:

{
  "instances": [
    {
      "reference_sentence_config": {
        "reference_sentence_pair_lists": [
          {
            "reference_sentence_pairs": [
              {
                "source_sentence": "REFERENCE_SOURCE_1_1",
                "target_sentence": "REFERENCE_TARGET_1_1"
              },
              {
                "source_sentence": "REFERENCE_SOURCE_1_2",
                "target_sentence": "REFERENCE_SOURCE_1_2"
              }
            ]
          }
        ],
        "source_language_code": "SOURCE_LANGUAGE_CODE",
        "target_language_code": "TARGET_LANGUAGE_CODE"
      },
      "content": [
        "SOURCE_TEXT"
      ],
      "mimeType": "MIME_TYPE"
    }
  ]
}

Per inviare la richiesta, espandi una di queste opzioni:

Dovresti ricevere una risposta JSON simile alla seguente:

{
  "predictions": [
    {
      "languageCode": "TARGET_LANGUAGE",
      "translations": [
        {
          "translatedText": "TRANSLATED_TEXT"
        }
      ]
    }
  ]
}

Node.js

Prima di provare questo esempio, segui le istruzioni di configurazione Node.js riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Node.js di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

async function translate() {
  const request = {
    instances: [{
        "reference_sentence_config": {
          "reference_sentence_pair_lists": [{
            "reference_sentence_pairs": [{
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
            },
            "reference_sentence_pairs": {
              "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
              "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
            }]
          }],
          "source_language_code": 'SOURCE_LANGUAGE_CODE',
          "target_language_code": 'TARGET_LANGUAGE_CODE'
        },
        "contents": ["SOURCE_TEXT"]
    }]
  };
  const {google} = require('googleapis');
  const aiplatform = google.cloud('aiplatform');
  const endpoint = aiplatform.predictionEndpoint('projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm');

  const [response] = await endpoint.predict(request)
  console.log('Translating')
  console.log(response)
}
  

Python

Prima di provare questo esempio, segui le istruzioni di configurazione Python riportate nella guida rapida all'utilizzo delle librerie client di Vertex AI. Per ulteriori informazioni, consulta la documentazione di riferimento dell'API Python di Vertex AI.

Per autenticarti a Vertex AI, configura le credenziali predefinite dell'applicazione. Per ulteriori informazioni, consulta Configurare l'autenticazione per un ambiente di sviluppo locale.

from google.cloud import aiplatform
from google.protobuf.json_format import MessageToDict

def translate():
  # Create a client
  client_options = {"api_endpoint": "LOCATION-aiplatform.googleapis.com"}
  client = aiplatform.gapic.PredictionServiceClient(client_options=client_options)

  # Initialize the request
  endpoint_id = f"projects/PROJECT_ID/locations/LOCATION/publishers/google/models/translate-llm"
  instances=[{
      "reference_sentence_config": {
        "reference_sentence_pair_lists": [{
          "reference_sentence_pairs": [{
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_1',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_1'
          },
          {
            "source_sentence": 'SAMPLE_REFERENCE_SOURCE_2',
            "target_sentence": 'SAMPLE_REFERENCE_TARGET_2'
          }]
        }],
        "source_language_code": 'SOURCE_LANGUAGE_CODE',
        "target_language_code": 'TARGET_LANGUAGE_CODE'
      },
      "content": ["SOURCE_TEXT"]
  }]
  # Make the request
  response = client.predict(
      endpoint=endpoint_id, instances=instances,
  )
  # Handle the response
  print(response)

  # The predictions are a google.protobuf.Value representation of the model's predictions.
  predictions = MessageToDict(response._pb)['predictions']
  for prediction in predictions:
      print(prediction['translations'])
  

Puoi anche utilizzare l'API Cloud Translation per creare un set di dati e importare le tue coppie di frasi di esempio. Quando utilizzi l'API Cloud Translation per richiedere traduzioni, puoi includere il tuo set di dati per personalizzare le risposte. Il set di dati rimane e può essere riutilizzato con più richieste di traduzione. Per ulteriori informazioni, consulta Richiedi traduzioni adattabili nella documentazione di Cloud Translation.

Lingue supportate

LLM di traduzione

Con l'LLM di traduzione, puoi tradurre da e verso una qualsiasi delle seguenti lingue.

Nome della lingua Codice lingua
Arabo ar
Cinese zh-CN
Ceco cs
Olandese nl
Inglese en
Francese fr
Tedesco de
Hindi hi
Indonesiano id
Italiano it
Giapponese ja
Coreano ko
Polacco pl
Portoghese pt
Russo ru
Spagnolo es
Tailandese th
Turco tr
Ucraino uk
Vietnamita vi

Gemini e NMT

Per informazioni sulle lingue supportate dai modelli Gemini e dal modello di traduzione automatica di Cloud Translation, consulta la seguente documentazione: