2025년 4월 9일부터 이러한 모델에 더 이상 액세스할 수 없습니다. 서비스가 중단되지 않도록 최신 모델로 이전해야 합니다.
아래에서 최신 모델로 이전하는 방법에 관한 리소스를 확인하세요.
알아 두어야 할 사항
2024년 10월 9일에 기존 모델에 다음과 같은 변경사항이 적용됩니다.
- 새로 만든 프로젝트에서 이러한 모델의 사용을 차단합니다.
- 새 할당량 상향 요청을 거부합니다.
- 기본 할당량을 60QPM으로 낮춥니다.
- 이전에 할당량 상향을 요청한 경우 영향을 받지 않습니다.
- 이러한 모델에서 새 조정 작업을 차단합니다.
- 이미 학습된 모델은 계속 사용할 수 있습니다.
아래 나열된 PaLM 모델은 새 연장일인 2025년 4월 9일까지 사용할 수 있습니다.
코드 | 텍스트 | 채팅 |
---|---|---|
code-bison@001 codechat-bison@001 code-gecko@001 code-bison@002 code-bison-32k@002 codechat-bison@002 codechat-bison-32k@002 code-gecko@002 |
text-bison@001 text-bison@002 text-bison-32k@002 textembedding-gecko@002 textembedding-gecko@001 text-unicorn@001 |
chat-bison@001 chat-bison@002 chat-bison-32k@002 |
필요한 조치
대부분의 작업에서 향상된 성능, 100만 개가 넘는 토큰으로 크게 늘어난 컨텍스트 윈도우, 네이티브 멀티모달을 위해 Gemini 1.5 Flash 및 Gemini 1.5 Pro로 이전하는 것이 좋습니다. 이러한 개선사항과 함께 상당한 비용 절감도 확인할 수 있습니다.
또한 Vertex AI 평가 서비스를 사용하여 자체 평가 데이터 세트에서 모델 간의 성능을 비교할 수 있습니다.
Vertex AI에서 PaLM API를 Gemini API로 마이그레이션하는 방법에 관한 전체 가이드를 검토하세요.
PaLM | Gemini |
---|---|
|
|