Mulai 9 April 2025, model ini tidak akan dapat diakses lagi. Anda harus bermigrasi ke model yang lebih baru untuk menghindari gangguan layanan.
Kami telah menyertakan referensi di bawah tentang cara bermigrasi ke model yang lebih baru.
Yang perlu Anda ketahui
Pada 9 Oktober 2024, kami akan melakukan perubahan berikut pada model lama:
- Blokir penggunaan model ini dari project yang baru dibuat.
- Menolak permintaan penambahan kuota baru.
- Turunkan kuota default menjadi 60 QPM.
- Jika sebelumnya telah meminta penambahan kuota, Anda TIDAK akan terpengaruh.
- Blokir tugas penyesuaian baru pada model ini.
- Anda tetap dapat menggunakan model yang telah dilatih.
Model PaLM yang tercantum di bawah akan tersedia hingga tanggal baru yang diperpanjang yaitu 9 April 2025:
Kode | Teks | Chat |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
Yang perlu dilakukan
Sebaiknya Anda bermigrasi ke Gemini 2.0 Flash untuk meningkatkan performa di sebagian besar tugas, meningkatkan jendela konteks secara substansial lebih dari 1 juta token, dan multimodalitas bawaan. Anda juga akan melihat penghematan biaya yang signifikan bersama dengan peningkatan ini.
Selain itu, Anda dapat menggunakan layanan Evaluasi Vertex AI untuk membandingkan performa antarmodel pada set data evaluasi Anda sendiri.
Tinjau panduan lengkap kami tentang cara bermigrasi dari PaLM API ke Gemini API di Vertex AI.
PaLM | Gemini 2.0 Flash |
---|---|
|
|