Vertex AI Model Optimizer

Vertex AI Model Optimizer è un endpoint dinamico progettato per semplificare la selezione del modello applicando automaticamente il modello Gemini che meglio soddisfa le tue esigenze. In questo modo puoi indirizzare i prompt a un singolo meta-endpoint e il servizio seleziona in modo intelligente il modello Gemini più appropriato per la tua query (Pro, Flash e così via) in base alle tue preferenze di costo e qualità.

Per ulteriori informazioni sui prezzi di Model Optimizer, consulta la sezione Prezzi.

Vantaggi

Model Optimizer ti consente di:

  • Semplifica la selezione del modello anziché scegliere un modello per ogni applicazione
  • Ottimizza per costi, qualità o entrambi, in modo da bilanciare prestazioni e budget
  • Integrati facilmente con le API e gli SDK Gemini esistenti
  • Monitorare l'utilizzo e identificare il potenziale di risparmio sui costi
  • Gestisci in modo efficiente le attività basate su testo senza la necessità di selezionare manualmente l'endpoint

Modelli supportati

Supporto dei linguaggi

Model Optimizer supporta tutte le lingue supportate anche dai modelli Gemini. (vedi Lingue supportate da Gemini)

Modalità

Model Optimizer supporta i casi d'uso del testo, tra cui:

  • Programmazione, inclusa la chiamata di funzione e l'esecuzione del codice
  • Riassunto
  • Chat a turno singolo e multi-turno
  • Question & Answering

Per informazioni sulle limitazioni e su come gestirle, vedi Gestire le funzionalità non supportate.

Per iniziare

Per iniziare a utilizzare Model Optimizer, consulta il notebook Colab di avvio rapido.

Utilizzo di Vertex AI Model Optimizer

Python

Installa

pip install --upgrade google-genai

Per saperne di più, consulta la documentazione di riferimento dell'SDK.

Imposta le variabili di ambiente per utilizzare l'SDK Gen AI con Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True

#     from google import genai
#     from google.genai.types import (
#         FeatureSelectionPreference,
#         GenerateContentConfig,
#         HttpOptions,
#         ModelSelectionConfig
#     )
#
#     client = genai.Client(http_options=HttpOptions(api_version="v1beta1"))
#     response = client.models.generate_content(
#         model="model-optimizer-exp-04-09",
#         contents="How does AI work?",
#         config=GenerateContentConfig(
#             model_selection_config=ModelSelectionConfig(
#                 feature_selection_preference=FeatureSelectionPreference.BALANCED  # Options: PRIORITIZE_QUALITY, BALANCED, PRIORITIZE_COST
#             ),
#         ),
#     )
#     print(response.text)
#     # Example response:
#     # Okay, let's break down how AI works. It's a broad field, so I'll focus on the ...
#     #
#     # Here's a simplified overview:
#     # ...

Go

Scopri come installare o aggiornare Go.

Per saperne di più, consulta la documentazione di riferimento dell'SDK.

Imposta le variabili di ambiente per utilizzare l'SDK Gen AI con Vertex AI:

# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values
# with appropriate values for your project.
export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT
export GOOGLE_CLOUD_LOCATION=global
export GOOGLE_GENAI_USE_VERTEXAI=True

import (
	"context"
	"fmt"
	"io"

	"google.golang.org/genai"
)

// generateModelOptimizerWithTxt shows how to generate text using a text prompt and model optimizer.
func generateModelOptimizerWithTxt(w io.Writer) error {
	ctx := context.Background()

	clientConfig := &genai.ClientConfig{
		HTTPOptions: genai.HTTPOptions{APIVersion: "v1beta1"},
	}

	client, err := genai.NewClient(ctx, clientConfig)

	if err != nil {
		return fmt.Errorf("failed to create genai client: %w", err)
	}

	modelSelectionConfig := &genai.ModelSelectionConfig{
		FeatureSelectionPreference: genai.FeatureSelectionPreferenceBalanced,
	}

	generateContentConfig := &genai.GenerateContentConfig{
		ModelSelectionConfig: modelSelectionConfig,
	}

	modelName := "gemini-2.5-flash"
	contents := genai.Text("How does AI work?")

	resp, err := client.Models.GenerateContent(ctx,
		modelName,
		contents,
		generateContentConfig,
	)
	if err != nil {
		return fmt.Errorf("failed to generate content: %w", err)
	}

	respText := resp.Text()

	fmt.Fprintln(w, respText)
	// Example response:
	// That's a great question! Understanding how AI works can feel like ...
	// ...
	// **1. The Foundation: Data and Algorithms**
	// ...

	return nil
}

Gestione delle funzionalità non supportate

Model Optimizer supporta solo input e output di testo. Tuttavia, la richiesta potrebbe includere modalità o strumenti diversi non supportati. Le sezioni seguenti descrivono come Model Optimizer gestisce queste funzionalità non supportate.

Richieste multimodali

Le richieste che includono prompt con dati multimodali, come video, immagini o audio, genereranno un errore INVALID_ARGUMENT.

Strumenti non supportati

Model Optimizer supporta solo la dichiarazione di funzione per le richieste. Se una richiesta contiene altri tipi di strumenti, tra cui google_maps, google_search, enterprise_web_search, retrieval o browse, viene generato un errore INVALID_ARGUMENT.

Invia feedback

Per inviare un feedback sulla tua esperienza con Model Optimizer, compila il nostro sondaggio di feedback.

Se hai domande, problemi tecnici o feedback su Model Optimizer, contatta model-optimizer-support@google.com.

Gruppo di discussione per i clienti

Per entrare in contatto diretto con il team di sviluppo, puoi unirti al gruppo di ascolto di Vertex AI Model Optimizer, dove puoi scoprire di più sul prodotto e aiutarci a capire come migliorare il funzionamento delle funzionalità per te. Le attività del gruppo includono:

  • Workshop virtuali per scoprire di più sulle funzionalità
  • Sondaggi di feedback per condividere le tue esigenze e priorità
  • Sessioni individuali con i dipendenti di Google Cloud mentre esploriamo nuove funzionalità

Le attività vengono offerte circa una volta ogni 6-8 settimane. Puoi partecipare a tutte le iniziative che vuoi o disattivare la partecipazione in qualsiasi momento. Per unirti al gruppo, compila il modulo di registrazione al gruppo di discussione di Vertex AI Model Optimizer.