Pathways Language Model (PaLM)

La disponibilità del Pathways Language Model (PaLM) e dei modelli di embedding elencati di seguito è stata estesa dal 9 ottobre 2024 al 21 aprile 2025 con limitazioni. In questo modo, avrai più tempo per eseguire test e migrare ai nostri ultimi modelli Gemini 2.0.

A partire dal 21 aprile 2025, questi modelli non saranno più accessibili. Dovrai eseguire la migrazione a un modello più recente per evitare interruzioni del servizio.

Di seguito sono riportate alcune risorse su come eseguire la migrazione ai modelli più recenti.

Informazioni importanti

Il 9 ottobre 2024 apporteremo le seguenti modifiche ai modelli precedenti:

  • Bloccare l'utilizzo di questi modelli da un progetto appena creato.
  • Rifiutare nuove richieste di aumento della quota.
  • Riduci la quota predefinita a 60 QPM.
    • Se in precedenza hai richiesto un aumento della quota, NON ne risentirai.
  • Blocca i nuovi job di ottimizzazione su questi modelli.
    • Puoi comunque utilizzare i modelli già addestrati.

I modelli PaLM elencati di seguito saranno disponibili fino alla nuova data estesa del 21 aprile 2025:

Codice Testo Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Che cosa devi fare

Ti invitiamo vivamente a eseguire la migrazione a Gemini 2.0 Flash per migliorare le prestazioni nella maggior parte delle attività, aumentare notevolmente la finestra contestuale oltre 1 milione di token e integrare la multimodalità. Oltre a questi miglioramenti, registrerai anche risparmi significativi sui costi.

Inoltre, puoi utilizzare il servizio di valutazione Vertex AI per confrontare le prestazioni tra i modelli nei tuoi set di dati di valutazione.

Consulta la nostra guida completa su come eseguire la migrazione dall'API PaLM all'API Gemini in Vertex AI.

PaLM Gemini 2.0 Flash
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model = GenerativeModel("gemini-2.0-flash")

response = model.generate_content("The opposite of hot is")

print(response.text)