PaLM(Pathways Language Model)

아래에 나열된 PaLM(Pathways Language Model) 및 임베딩 모델의 사용 가능 여부는 2024년 10월 9일에서 2025년 4월 9일(제한사항 있음)로 연장되었습니다. 이를 통해 최신 Gemini 2.0 모델을 테스트하고 마이그레이션하는 데 더 많은 시간을 할애할 수 있습니다.

2025년 4월 9일부터 이러한 모델에 더 이상 액세스할 수 없습니다. 서비스 중단을 방지하려면 최신 모델로 마이그레이션해야 합니다.

최신 모델로 마이그레이션하는 방법에 관한 리소스가 아래에 포함되어 있습니다.

알아야 할 사항

2024년 10월 9일에 기존 모델에 다음과 같은 변경사항이 적용됩니다.

  • 새로 만든 프로젝트에서 이러한 모델의 사용을 차단합니다.
  • 새 할당량 상향 요청을 거부합니다.
  • 기본 할당량을 60QPM으로 낮춥니다.
    • 이전에 할당량 상향을 요청한 경우 영향을 받지 않습니다.
  • 이러한 모델에서 새 조정 작업을 차단합니다.
    • 이미 학습된 모델은 계속 사용할 수 있습니다.

아래에 나열된 PaLM 모델은 새 연장일인 2025년 4월 9일까지 사용할 수 있습니다.

코드 텍스트 채팅
code-bison@001
codechat-bison@001
code-gecko@001
code-bison@002
code-bison-32k@002
codechat-bison@002
codechat-bison-32k@002
code-gecko@002
text-bison@001
text-bison@002
text-bison-32k@002
textembedding-gecko@002
textembedding-gecko@001
text-unicorn@001
chat-bison@001
chat-bison@002
chat-bison-32k@002

필요한 조치

대부분의 작업에서 성능을 개선하고, 컨텍스트 윈도우를 100만 개 이상의 토큰으로 대폭 늘리며, 멀티모달을 내장할 수 있도록 Gemini 2.0 Flash로 마이그레이션하는 것이 좋습니다. 이러한 개선사항과 함께 상당한 비용 절감도 확인할 수 있습니다.

또한 Vertex AI 평가 서비스를 사용하여 자체 평가 데이터 세트에서 모델 간의 성능을 비교할 수 있습니다.

PaLM API에서 Vertex AI의 Gemini API로 마이그레이션하는 방법에 관한 전체 가이드를 검토하세요.

PaLM Gemini 2.0 Flash
from vertexai.language_models import TextGenerationModel

model=TextGenerationModel.from_pretrained("text-bison@002")

response=model.predict(prompt="The opposite of hot is")
print(response.text)
          
from vertexai.generative_models import GenerativeModel

model = GenerativeModel("gemini-2.0-flash")

response = model.generate_content("The opposite of hot is")

print(response.text)