Domande frequenti sull'API Gemini

Questo documento fornisce le risposte alle domande frequenti (FAQ) sull'API Gemini, organizzate nelle seguenti categorie:

Confronti dei modelli

Qual è la differenza tra PaLM e Gemini?

I modelli Gemini sono progettati per applicazioni multimodali. I modelli Gemini accettano prompt che includono, ad esempio, testo e immagini, per poi restituire una risposta di testo. Gemini supporta anche le chiamate di funzione, che consentono agli sviluppatori di passare una descrizione di una funzione, dopodiché il modello restituisce una funzione e i parametri che corrispondono meglio alla descrizione. Gli sviluppatori possono quindi chiamare questa funzione in API e servizi esterni.

I modelli PaLM 2 sono disponibili a livello generale (GA). I modelli PaLM 2 sono progettati per le applicazioni linguistiche e hanno un buon rendimento in casi d'uso come il riassunto e la generazione di testo. PaLM 2 offre inoltre il supporto completo per i servizi MLOps su Vertex AI, come il monitoraggio dei modelli, che non sono disponibili con Gemini.

Con Vertex AI Studio, puoi personalizzare i modelli Gemini e PaLM 2 con controlli dati completi e sfruttare la sicurezza, la protezione, la privacy, la conformità e la governance dei dati di Google Cloud. I prompt e i dati di ottimizzazione per Gemini e PaLM 2 non vengono mai utilizzati per addestrare o migliorare i nostri modelli di base.

Perché scegliere PaLM anziché Gemini?

Per i casi d'uso che richiedono esclusivamente input-output di testo (come la sintesi di testo, la generazione di testo e le domande e risposte), i modelli PaLM 2 possono fornire risposte di qualità sufficientemente elevata.

I modelli Gemini sono adatti per casi d'uso che includono input multimodali, richiedono chiamate di funzioni o richiedono tecniche di prompt complesse (come la catena di pensiero e il rispetto di istruzioni complesse).

PaLM 2 è deprecato?

Non è prevista la ritiro di PaLM 2.

Qual è la differenza tra Imagen su Vertex AI e l'API Gemini per i casi d'uso di visione?

Imagen è un modello di visione per la generazione, l'editing, la trascrizione e i casi d'uso di Domande e risposte su un'immagine. Nell'ambito dei prompt, Gemini può acquisire più immagini o un video e fornire risposte sui tuoi input, mentre Imagen può acquisire una sola immagine di input. Gemini non supporta la generazione o la modifica di immagini.

Qual è la differenza tra le API Codey di Vertex AI e l'API Gemini per i casi d'uso di programmazione?

Le API Codey sono progettate appositamente per la generazione, il completamento e la chat di codice. Le API Codey si basano su Gemini e su altri modelli sviluppati da Google. Puoi utilizzare le API durante tutto il ciclo di vita dello sviluppo software integrandole in IDE, flussi di lavoro CI/CD, dashboard e altre applicazioni. Puoi anche personalizzare i modelli con la tua base di codice. Non consigliamo Gemini 1.0 Pro Vision per la generazione di codice.

Come faccio a inviare un prompt al modello Gemini 1.0 Pro o Gemini 1.0 Pro Vision

Esistono diversi metodi che puoi utilizzare per inviare richieste all'API Gemini. Ad esempio, puoi utilizzare la console Google Cloud, un SDK per linguaggi di programmazione o l'API REST per inviare richieste a gemini-1.0-pro (Gemini 1.0 Pro) o gemini-1.0-pro-vision (Gemini 1.0 Pro Vision).

Per iniziare, consulta Prova l'API Gemini.

L'ottimizzazione è disponibile per Gemini?

Puoi ottimizzare la versione 002 della versione stabile di Gemini 1.0 Pro (gemini-1.0-pro-002). Per ulteriori informazioni, consulta Panoramica dell'ottimizzazione del modello per Gemini.

Sicurezza e utilizzo dei dati

Perché le mie risposte sono bloccate?

L'IA generativa su Vertex AI utilizza filtri di sicurezza per impedire risposte potenzialmente dannose. Puoi regolare questa soglia del filtro di sicurezza. Per ulteriori informazioni, consulta IA responsabile.

Come vengono utilizzati i miei dati di input?

Google si assicura che i suoi team rispettino il nostro impegno in materia di privacy AI/ML attraverso pratiche di governance dei dati solide, che includono revisioni dei dati utilizzati da Google Cloud nello sviluppo dei suoi prodotti. Per maggiori dettagli, consulta IA generativa e governance dei dati.

Memorizzi nella cache i miei dati?

Google può memorizzare nella cache gli input e gli output di un cliente per i modelli Gemini per accelerare le risposte ai prompt successivi del cliente. I contenuti memorizzati nella cache vengono archiviati per un massimo di 24 ore. Per impostazione predefinita, la memorizzazione nella cache dei dati è abilitata per ogni progetto Google Cloud. Le stesse impostazioni della cache per un progetto Google Cloud si applicano a tutte le regioni. Puoi utilizzare i seguenti comandi curl per ottenere lo stato della memorizzazione nella cache, disattivare la memorizzazione nella cache o riattivarla. Per ulteriori informazioni, consulta Predizione nella pagina sull'AI generativa e sulla governance dei dati. Quando disattivi o riattivi la memorizzazione nella cache, la modifica viene applicata a tutte le regioni Google Cloud. Per ulteriori informazioni sull'utilizzo di Identity and Access Management per concedere le autorizzazioni necessarie per attivare o disattivare la memorizzazione nella cache, consulta Controllo dell'controllo dell'accesso Vertex AI con IAM. Espandi le sezioni seguenti per scoprire come recuperare l'impostazione della cache corrente, disattivare la memorizzazione nella cache e attivarla.

Ottenere l'impostazione di memorizzazione nella cache corrente

Esegui il seguente comando per determinare se la memorizzazione nella cache è attivata o disattivata per un progetto. Per eseguire questo comando, a un utente deve essere concesso uno dei seguenti ruoli: roles/aiplatform.viewer, roles/aiplatform.user o roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# GetCacheConfig
$ curl -X GET -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig

# Response if caching is enabled (caching is enabled by default).
{
  "name": "projects/PROJECT_ID/cacheConfig"
}

# Response if caching is disabled.
{
  "name": "projects/PROJECT_ID/cacheConfig"
  "disableCache": true
}
    

Disabilita memorizzazione nella cache

Esegui il seguente comando curl per disattivare la memorizzazione nella cache per un progetto Google Cloud. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore di Vertex AI,roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt-out of caching.
$ curl -X PATCH -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": true
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_ID}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Attiva la memorizzazione nella cache

Se hai disattivato la memorizzazione nella cache per un progetto Google Cloud e vuoi riattivarla, esegui il seguente comando curl. Per eseguire questo comando, a un utente deve essere concesso il ruolo di amministratore Vertex AI, roles/aiplatform.admin.

PROJECT_ID=PROJECT_ID
LOCATION_ID="us-central1"
# Setup project_id
$ gcloud config set project PROJECT_ID

# Setup project_id.
$ gcloud config set project ${PROJECT_ID}

# Opt in to caching.
$ curl -X PATCH     -H "Authorization: Bearer $(gcloud auth application-default print-access-token)" -H "Content-Type: application/json" https://us-central1-aiplatform.googleapis.com/v1/projects/PROJECT_ID/cacheConfig -d '{
  "name": "projects/PROJECT_ID/cacheConfig",
  "disableCache": false
}'

# Response.
{
  "name": "projects/PROJECT_ID/locations/us-central1/projects/PROJECT_ID/cacheConfig/operations/${OPERATION_NUMBER}",
  "done": true,
  "response": {
    "@type": "type.googleapis.com/google.protobuf.Empty"
  }
}
    

Migrazione

Come faccio a eseguire la migrazione di Gemini su Google AI Studio a Vertex AI Studio?

La migrazione alla piattaforma Vertex AI di Google Cloud offre una suite di strumenti MLOps che semplificano l'utilizzo, il deployment e il monitoraggio dei modelli di IA per garantire efficienza e affidabilità. Per eseguire la migrazione del tuo lavoro a Vertex AI, importa e carica i dati esistenti in Vertex AI Studio e utilizza l' API Gemini di Vertex AI. Per ulteriori informazioni, consulta Eseguire la migrazione da Gemini sull'AI di Google a Vertex AI.

Come faccio a passare da PaLM 2 all'API Vertex AI Gemini come modello sottostante?

Non è necessario apportare modifiche sostanziali all'architettura delle applicazioni quando si passa dai modelli PaLM ai modelli Gemini. Dal punto di vista dell'API, il passaggio da un modello all'altro richiede la modifica di una singola riga di codice o l'aggiornamento dell'SDK. Per saperne di più, consulta Eseguire la migrazione dall'API PaLM all'API Vertex AI Gemini.

Poiché le risposte possono variare da un modello all'altro, ti consigliamo di eseguire test sui prompt per confrontare le risposte dei modelli PaLM e Gemini e verificare che soddisfino le tue aspettative.

Disponibilità e prezzi

In quali località è disponibile Gemini?

Gemini 1.0 Pro e Gemini 1.0 Pro Vision sono disponibili nelle regioni Asia, Stati Uniti ed Europa. Per ulteriori informazioni, consulta Località dell'IA generativa su Vertex AI.

Esiste un livello di valutazione gratuito per l'API Gemini di Vertex AI?

Contatta il tuo rappresentante di Google Cloud per ulteriori informazioni.

Quali sono i prezzi dell'API Gemini di Vertex AI?

Le informazioni sui prezzi dei modelli Gemini sono disponibili nella sezione Multimodale della pagina Prezzi per l'IA generativa su Vertex AI.

Come faccio ad accedere a Gemini Ultra?

Contatta il rappresentante del tuo Account Google per richiedere l'accesso.

Quote

Come faccio a risolvere un errore di quota (429) quando effettuo richieste API?

La domanda è eccessiva o la richiesta ha superato la quota per progetto. Verifica che la frequenza delle richieste sia inferiore alla quota per il progetto. Per visualizzare le quote del progetto, vai alla pagina Quote in Google Cloud Console. Per ulteriori informazioni, consulta IA generativa su Vertex AI su quote e limiti di Vertex AI.

Come faccio ad aumentare le quote del mio progetto per Gemini?

Puoi richiedere un aumento dalla console Google Cloud. Per ulteriori informazioni, consulta Quota e limiti dell'IA generativa su Vertex AI.