Pathways Language Model (PaLM)

Die Verfügbarkeit des Pathways Language Model (PaLM) und der unten aufgeführten Einbettungsmodelle wurde vom 9. Oktober 2024 bis zum 9. April 2025 mit Einschränkungen verlängert. So haben Sie mehr Zeit, unsere neuesten Gemini 1.5-Modelle zu testen und zu migrieren.

Ab dem 9. April 2025 ist der Zugriff auf diese Modelle nicht mehr möglich. Sie müssen zu einem neueren Modell migrieren, um Dienstunterbrechungen zu vermeiden.

Unten finden Sie Ressourcen zur Migration zu neueren Modellen.

Was Sie wissen sollten

Am 9. Oktober 2024 nehmen wir die folgenden Änderungen an den Legacy-Modellen vor:

  • Blockieren Sie die Verwendung dieser Modelle in einem neu erstellten Projekt.
  • Ablehnen Sie neue Anfragen zur Kontingenterhöhung.
  • Senken Sie das Standardkontingent auf 60 Abfragen pro Minute.
    • Wenn Sie bereits eine Kontingenterhöhung beantragt haben, sind Sie NICHT betroffen.
  • Blockieren Sie neue Tuning-Jobs für diese Modelle.
    • Sie können weiterhin bereits trainierte Modelle verwenden.

Die unten aufgeführten PaLM-Modelle sind bis zum neuen verlängerten Datum 9. April 2025 verfügbar:

Code Text Chat
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

So geht es weiter

Wir empfehlen Ihnen dringend, zu Gemini 1.5 Flash und Gemini 1.5 Pro zu migrieren. Sie profitieren dann von einer verbesserten Leistung bei den meisten Aufgaben, einem deutlich größeren Kontextfenster (über 1 Million Tokens) und nativer Multimodalität. Außerdem können Sie mit diesen Verbesserungen erhebliche Kosten sparen.

Außerdem können Sie den Vertex AI-Bewertungsdienst verwenden, um die Leistung von Modellen anhand Ihrer eigenen Bewertungsdatensätze zu vergleichen.

Weitere Informationen finden Sie in der vollständigen Anleitung zur Migration von der PaLM API zur Gemini API in Vertex AI.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)