Ab dem 9. April 2025 ist der Zugriff auf diese Modelle nicht mehr möglich. Sie müssen zu einem neueren Modell migrieren, um Dienstunterbrechungen zu vermeiden.
Unten finden Sie Ressourcen zur Migration zu neueren Modellen.
Was Sie wissen sollten
Am 9. Oktober 2024 nehmen wir die folgenden Änderungen an den Legacy-Modellen vor:
- Blockieren Sie die Verwendung dieser Modelle in einem neu erstellten Projekt.
- Ablehnen Sie neue Anfragen zur Kontingenterhöhung.
- Senken Sie das Standardkontingent auf 60 Abfragen pro Minute.
- Wenn Sie bereits eine Kontingenterhöhung beantragt haben, sind Sie NICHT betroffen.
- Blockieren Sie neue Tuning-Jobs für diese Modelle.
- Sie können weiterhin bereits trainierte Modelle verwenden.
Die unten aufgeführten PaLM-Modelle sind bis zum neuen verlängerten Datum 9. April 2025 verfügbar:
Code | Text | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
So geht es weiter
Wir empfehlen Ihnen dringend, zu Gemini 1.5 Flash und Gemini 1.5 Pro zu migrieren. Sie profitieren dann von einer verbesserten Leistung bei den meisten Aufgaben, einem deutlich größeren Kontextfenster (über 1 Million Tokens) und nativer Multimodalität. Außerdem können Sie mit diesen Verbesserungen erhebliche Kosten sparen.
Außerdem können Sie den Vertex AI-Bewertungsdienst verwenden, um die Leistung von Modellen anhand Ihrer eigenen Bewertungsdatensätze zu vergleichen.
Weitere Informationen finden Sie in der vollständigen Anleitung zur Migration von der PaLM API zur Gemini API in Vertex AI.
PaLM | Gemini |
---|---|
|
|