I modelli Gemini 2 sono gli ultimi modelli di Google supportati in Vertex AI. Questa pagina illustra i seguenti modelli:
Se stai cercando informazioni sul nostro modello Gemini 2.5 Pro Experimental, consulta la nostra documentazione di Gemini 2.5 Pro Experimental.
Modelli
2.0 Flash
Gemini 2.0 Flash è il nostro modello più recente disponibile al pubblico nella famiglia Gemini. È il nostro modello di punta per tutte le attività quotidiane, offre prestazioni migliorate e supporta l'API Live in tempo reale.
Gemini 2.0 Flash introduce le seguenti funzionalità nuove e migliorate:
- API Multimodal Live:questa nuova API consente interazioni vocali e video bidirezionali a bassa latenza con Gemini.
- Qualità: miglioramento del rendimento rispetto alla maggior parte dei benchmark di qualità.
- Funzionalità di agenti migliorate: 2.0 Flash offre miglioramenti alla comprensione multimodale, alla programmazione, al rispetto di istruzioni complesse e alla chiamata di funzioni. Questi miglioramenti agiscono in sinergia per offrire esperienze migliori agli agenti.
- Nuove modalità: Flash 2.0 introduce la generazione di immagini e la sintesi vocale controllabile integrate, che consentono la modifica delle immagini, la creazione di artwork localizzati e la narrazione espressiva.
Funzionalità di Gemini 2.0 Flash:
- Input multimodale
- Output di testo (disponibilità generale) / output multimodale (anteprima privata)
- Strumenti per ottimizzare i prompt
- Generazione controllata
- Chiamata di funzione
- Grounding con la Ricerca Google
- Esecuzione di codice
- Token di conteggio
Utilizza questo ID modello per utilizzare Gemini 2.0 Flash con l'SDK Gen AI: gemini-2.0-flash
Disponibilità della funzionalità
Per Gemini 2.0 Flash sono disponibili le seguenti funzionalità:
Funzionalità | Livello di disponibilità |
---|---|
Generazione di testo | Generalmente disponibile |
Grounding con la Ricerca Google | Generalmente disponibile |
SDK Gen AI | Generalmente disponibile |
API Multimodal Live | Anteprima pubblica |
Rilevamento di caselle delimitanti | Anteprima pubblica |
Generazione di immagini | Anteprima privata |
Generare voce | Anteprima privata |
- Disponibile a livello generale:questa funzionalità è disponibile pubblicamente e supportata per l'uso nel codice a livello di produzione.
- Anteprima pubblica:questa funzionalità è disponibile pubblicamente con una capacità ridotta. Non utilizzare le funzionalità rilasciate come anteprima pubblica nel codice di produzione, perché il livello di assistenza e la funzionalità della funzionalità possono cambiare senza preavviso.
- Anteprima privata:questa funzionalità è disponibile solo per gli utenti inclusi in una lista consentita approvata. Non utilizzare le funzionalità rilasciate come anteprima privata nel codice di produzione, perché il livello di assistenza e la funzionalità di quella funzionalità possono cambiare senza preavviso.
Prezzi
Le informazioni sui prezzi di Gemini 2.0 Flash sono disponibili nella nostra pagina dei prezzi.
Quote e limitazioni
Le funzionalità GA in Gemini 2.0 Flash utilizzano la quota condivisa dinamica.
La verifica dell'attendibilità con la Ricerca Google in Gemini 2.0 Flash è soggetta al limite di frequenza.
2.0 Flash-Lite
Gemini 2.0 Flash-Lite è il nostro modello Flash più veloce e più economico.
Gemini 2.0 Flash-Lite include:
- Input multimodale, output di testo
- Finestra contestuale di input da 1 milione di token
- Finestra contestuale di output di 8000 token
2.0 Flash-Lite non include le seguenti funzionalità:
- Generazione di output multimodale
- Integrazione con l'API multimodale in tempo reale
- Modalità di pensiero
- Utilizzo dello strumento integrato
Utilizza questo ID modello per utilizzare Gemini 2.0 Flash-Lite con l'SDK Gen AI: gemini-2.0-flash-lite
2.5 Pro Experimental
Gemini 2.5 Pro Experimental è il nostro modello Gemini di ragionamento più avanzato, in particolare per la comprensione multimodale, la programmazione e la conoscenza del mondo. Gemini 2.5 Pro Experimental è disponibile come modello sperimentale in Vertex AI.
Funzionalità di Gemini 2.5 Pro Experimental:
- Pensiero e ragionamento
- Input multimodale
- Output di testo
- Strumenti per ottimizzare i prompt
- Generazione controllata
- Chiamate di funzione (escluse le chiamate di funzioni compositive)
- Grounding con la Ricerca Google
- Esecuzione di codice
- Token di conteggio
Utilizza questo ID modello per utilizzare Gemini 2.5 Pro Experimental con l'SDK Gen AI: gemini-2.5-pro-exp-03-25
Quote e limitazioni
Gemini 2.5 Pro Experimental ha una frequenza limitata a 10 query al minuto (QPM) durante la fase sperimentale.
La funzionalità di grounding con la Ricerca Google in Gemini 2.5 Pro Sperimentale è soggetta a limitazioni di frequenza.
SDK Google Gen AI
L'SDK IA generativa fornisce un'interfaccia unificata a Gemini 2.0 tramite sia l'API Gemini Developer sia l'API Gemini su Vertex AI. Con alcune eccezioni, il codice che viene eseguito su una piattaforma verrà eseguito su entrambe. Ciò significa che puoi realizzare il prototipo di un'applicazione utilizzando l'API Developer e poi eseguirne la migrazione a Vertex AI senza riscriverne il codice.
L'SDK è disponibile in Python. Il supporto per Go è in anteprima e il supporto per Java e JavaScript sarà disponibile a breve.
Puoi iniziare a utilizzare l'SDK come mostrato.
Gen AI SDK for Python
Installa
pip install --upgrade google-genai
Imposta le variabili di ambiente per utilizzare l'SDK Gen AI con Vertex AI:
# Replace the `GOOGLE_CLOUD_PROJECT` and `GOOGLE_CLOUD_LOCATION` values # with appropriate values for your project. export GOOGLE_CLOUD_PROJECT=GOOGLE_CLOUD_PROJECT export GOOGLE_CLOUD_LOCATION=us-central1 export GOOGLE_GENAI_USE_VERTEXAI=True