Pathways Language Model (PaLM):

La disponibilidad del Pathways Language Model (PaLM) y los modelos de incorporación que se indican a continuación se extendió del 9 de octubre de 2024 al 9 de abril de 2025 con limitaciones. Esto te brinda más tiempo para probar y migrar a nuestros modelos Gemini 1.5 más recientes.

A partir del 9 de abril de 2025, ya no se podrá acceder a estos modelos. Deberás migrar a un modelo más reciente para evitar interrupciones del servicio.

A continuación, incluimos recursos sobre cómo migrar a modelos más recientes.

Qué debes saber

El 9 de octubre de 2024, realizaremos los siguientes cambios en los modelos heredados:

  • Bloquea el uso de estos modelos desde un proyecto creado recientemente.
  • Rechaza las solicitudes de aumento de cuota nuevas.
  • Disminuye la cuota predeterminada a 60 QPM.
    • Si ya solicitaste un aumento de cuota, NO se te afectará.
  • Bloquea los nuevos trabajos de ajuste en estos modelos.
    • De todos modos, puedes usar modelos ya entrenados.

Los modelos de PaLM que se indican a continuación estarán disponibles hasta la nueva fecha extendida del 9 de abril de 2025:

Código Texto Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

Qué debes hacer

Te recomendamos que migres a Gemini 1.5 Flash y Gemini 1.5 Pro para mejorar el rendimiento en la mayoría de las tareas, aumentar significativamente la ventana de contexto a más de 1 millón de tokens y obtener multimodalidad nativa. Además, verás ahorros de costos sustanciales junto con estas mejoras.

Además, puedes usar el servicio de evaluación de Vertex AI para comparar el rendimiento entre modelos en tus propios conjuntos de datos de evaluación.

Consulta nuestra guía completa para migrar de la API de PaLM a la API de Gemini en Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)