PaLM(Pathways Language Model)

아래에 나열된 Pathways Language Model(PaLM) 및 임베딩 모델의 사용 가능 여부는 2024년 10월 9일에서 2025년 4월 9일(제한사항 있음)로 연장되었습니다. 이를 통해 최신 Gemini 1.5 모델을 테스트하고 이전하는 데 더 많은 시간을 할애할 수 있습니다.

2025년 4월 9일부터 이러한 모델에 더 이상 액세스할 수 없습니다. 서비스가 중단되지 않도록 최신 모델로 이전해야 합니다.

아래에서 최신 모델로 이전하는 방법에 관한 리소스를 확인하세요.

알아 두어야 할 사항

2024년 10월 9일에 기존 모델에 다음과 같은 변경사항이 적용됩니다.

  • 새로 만든 프로젝트에서 이러한 모델의 사용을 차단합니다.
  • 새 할당량 상향 요청을 거부합니다.
  • 기본 할당량을 60QPM으로 낮춥니다.
    • 이전에 할당량 상향을 요청한 경우 영향을 받지 않습니다.
  • 이러한 모델에서 새 조정 작업을 차단합니다.
    • 이미 학습된 모델은 계속 사용할 수 있습니다.

아래 나열된 PaLM 모델은 새 연장일인 2025년 4월 9일까지 사용할 수 있습니다.

코드 텍스트 채팅
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

필요한 조치

대부분의 작업에서 향상된 성능, 100만 개가 넘는 토큰으로 크게 늘어난 컨텍스트 윈도우, 네이티브 멀티모달을 위해 Gemini 1.5 FlashGemini 1.5 Pro로 이전하는 것이 좋습니다. 이러한 개선사항과 함께 상당한 비용 절감도 확인할 수 있습니다.

또한 Vertex AI 평가 서비스를 사용하여 자체 평가 데이터 세트에서 모델 간의 성능을 비교할 수 있습니다.

Vertex AI에서 PaLM API를 Gemini API로 마이그레이션하는 방법에 관한 전체 가이드를 검토하세요.

PaLM Gemini
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model=GenerativeModel("gemini-1.5-flash-001")

response=model.generate_content("The opposite of hot is")

for response in responses:
print(response.text)