데이터 상주
컬렉션을 사용해 정리하기
내 환경설정을 기준으로 콘텐츠를 저장하고 분류하세요.
저장 데이터
고객이 선택한 위치에 저장된 데이터는 고객의 요청에 의해 호출된 Vertex AI의 생성형 AI 엔드포인트와 관계없이 해당 위치에 계속 저장됩니다.
ML 처리
Vertex AI 서비스의 생성형 AI에 대한 머신러닝 (ML) 처리는 요청이 이루어진 특정 리전 또는 멀티 리전 내에서 발생합니다.
요청이 이루어진 리전에서 ML 처리를 사용할 수 없는 경우Google Cloud 은 사용 가능한 리전을 사용합니다. 지역별 사용 가능 여부는 다음 표를 참고하세요.
Google Cloud 모델의 ML 처리
미국
|
미국 멀티 리전 |
Gemini 2.5 Flash (gemini-2.5-flash ) |
✔ |
Gemini 2.5 Pro (gemini-2.5-pro ) |
✔ |
Gemini 2.0 Flash(gemini-2.0-flash-001 ) |
✔ |
Gemini 2.0 Flash-Lite(gemini-2.0-flash-lite-001 ) |
✔ |
Gemini 1.5 Pro(gemini-1.5-pro-002 ) |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) |
✔ |
Gemini 1.5 Pro(gemini-1.0-pro-002 ) 조정 |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) 조정 |
✔ |
Gemini 삽입 (gemini-embedding-001 ) |
✔ |
텍스트용 임베딩(text-embedding-004 ) |
✔ |
텍스트용 임베딩(text-embedding-005 ) |
✔ |
텍스트용 임베딩(text-multilingual-embedding-002 ) |
✔ |
멀티모달용 임베딩 |
✔ |
Imagen 2(imagegeneration@005 ) |
✔ |
캐나다
|
몬트리올(northamerica-northeast1) |
Gemini 2.5 Flash (gemini-2.5-flash ) |
Gemini 2.5 Pro (gemini-2.5-pro ) |
Gemini 2.0 Flash(gemini-2.0-flash-001 ) |
|
Gemini 2.0 Flash-Lite(gemini-2.0-flash-lite-001 ) |
|
Gemini 1.5 Pro(gemini-1.5-pro-002 , 32k만 해당) |
✔ |
Gemini 1.5 Pro(gemini-1.5-pro-001 ) |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 , 32k만 해당) |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-001 ) |
✔ |
Gemini 1.5 Pro(gemini-1.0-pro-002 ) 조정 |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) 조정 |
✔ |
Gemini 삽입 (gemini-embedding-001 ) |
|
텍스트용 임베딩(text-embedding-004 ) |
✔ |
텍스트용 임베딩(text-embedding-005 ) |
|
텍스트용 임베딩(text-multilingual-embedding-002 ) |
✔ |
멀티모달용 임베딩 |
Imagen 2(imagegeneration@005 ) |
유럽
|
EU 멀티 리전 |
영국 런던(europe-west2) |
독일 프랑크푸르트(europe-west3) |
Gemini 2.5 Flash (gemini-2.5-flash ) |
✔ |
Gemini 2.5 Pro (gemini-2.5-pro ) |
✔ |
Gemini 2.0 Flash(gemini-2.0-flash-001 ) |
✔ |
Gemini 2.0 Flash-Lite(gemini-2.0-flash-lite-001 ) |
✔ |
Gemini 1.5 Pro(gemini-1.5-pro-002 ) |
✔ |
Gemini 1.5 Pro(gemini-1.5-pro-001 ) |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 , 32k만 해당) |
|
✔ |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-001 ) |
✔ |
Gemini 1.5 Pro(gemini-1.0-pro-002 ) 조정 |
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) 조정 |
✔ |
Gemini 삽입 (gemini-embedding-001 ) |
✔ |
텍스트용 임베딩(text-embedding-004 ) |
✔ |
✔ |
텍스트용 임베딩(text-embedding-005 ) |
✔ |
|
텍스트용 임베딩(text-multilingual-embedding-002 ) |
✔ |
✔ |
멀티모달용 임베딩 |
✔ |
Imagen 2(imagegeneration@005 ) |
✔ |
아시아 태평양
|
일본 도쿄(asia-northeast1) |
오스트레일리아 시드니(australia-southeast1) |
인도 뭄바이(asia-south1) |
Gemini 2.5 Flash (gemini-2.5-flash ) |
Gemini 2.5 Pro (gemini-2.5-pro ) |
Gemini 2.0 Flash(gemini-2.0-flash-001 ) |
Gemini 2.0 Flash-Lite(gemini-2.0-flash-lite-001 ) |
Gemini 1.5 Pro(gemini-1.5-pro-002 ) |
Gemini 1.5 Pro(gemini-1.5-pro-001 ) |
Gemini 1.5 Flash(gemini-1.5-flash-002 , 32k만 해당) |
✔ |
|
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-002 , 128k만 해당) |
|
✔ |
Gemini 1.5 Flash(gemini-1.5-flash-001 ) |
Gemini 1.5 Pro(gemini-1.0-pro-002 ) 조정 |
Gemini 1.5 Flash(gemini-1.5-flash-002 ) 조정 |
Gemini 삽입 (gemini-embedding-001 ) |
|
텍스트용 임베딩(text-embedding-004 ) |
✔ |
텍스트용 임베딩(text-embedding-005 ) |
|
텍스트용 임베딩(text-multilingual-embedding-002 ) |
✔ |
멀티모달용 임베딩 |
Imagen 2(imagegeneration@005 ) |
Google Cloud 파트너 모델의 ML 처리
미국
|
미국 멀티 리전 |
Anthropic의 Claude Opus 4 |
✔ |
Anthropic의 Claude Sonnet 4 |
✔ |
Anthropic의 Claude 3.7 Sonnet |
✔ |
Anthropic의 Claude 3.5 Sonnet v2 |
✔ |
Anthropic의 Claude 3.5 Sonnet |
✔ |
Anthropic의 Claude 3.5 Haiku |
✔ |
Anthropic의 Claude 3 Opus |
✔ |
Anthropic의 Claude 3 Haiku |
✔ |
DeepSeek-R1-0528 (미리보기) |
✔ |
Llama 4 Maverick 17B-128E (미리보기) |
✔ |
Llama 4 Scout 17B-16E (미리보기) |
✔ |
Llama 3.3 70B(프리뷰) |
✔ |
Llama 3.2 90B(프리뷰) |
✔ |
Llama 3.1 405B |
✔ |
Llama 3.1 70B(프리뷰) |
✔ |
Llama 3.1 8B(프리뷰) |
✔ |
Mistral OCR (25.05) |
✔ |
Mistral Small 3.1(25.03) |
✔ |
Mistral Large |
✔ |
Mistral Nemo |
✔ |
Codestral |
✔ |
Jamba 1.5 Large(미리보기) |
✔ |
Jamba 1.5 Mini(미리보기) |
✔ |
유럽
|
EU 멀티 리전 |
벨기에(europe-west1) |
네덜란드(europe-west4) |
Anthropic의 Claude Opus 4 |
|
Anthropic의 Claude Sonnet 4 |
✔ |
✔ |
|
Anthropic의 Claude 3.7 Sonnet |
✔ |
✔ |
|
Anthropic의 Claude 3.5 Sonnet v2 |
✔ |
✔ |
|
Anthropic의 Claude 3.5 Sonnet |
✔ |
✔ |
|
Anthropic의 Claude 3.5 Haiku |
✔ |
|
|
Anthropic의 Claude 3 Opus |
✔ |
|
|
Anthropic의 Claude 3 Haiku |
✔ |
✔ |
|
DeepSeek-R1-0528 (미리보기) |
|
Llama 4 Maverick 17B-128E (미리보기) |
Llama 4 Scout 17B-16E (미리보기) |
Llama 3.3 70B(프리뷰) |
|
|
|
Llama 3.2 90B(프리뷰) |
|
|
|
Llama 3.1 405B |
|
|
|
Llama 3.1 70B(프리뷰) |
|
|
|
Llama 3.1 8B(프리뷰) |
|
|
|
Mistral OCR (25.05) |
✔ |
|
✔ |
Mistral Small 3.1(25.03) |
✔ |
|
✔ |
Mistral Large |
✔ |
|
✔ |
Mistral Nemo |
✔ |
|
✔ |
Codestral |
✔ |
|
✔ |
Jamba 1.5 Large(미리보기) |
✔ |
|
✔ |
Jamba 1.5 Mini(미리보기) |
✔ |
|
✔ |
아시아 태평양
|
싱가포르(asia-southeast1) |
Anthropic의 Claude Opus 4 |
|
Anthropic의 Claude Sonnet 4 |
|
Anthropic의 Claude 3.7 Sonnet |
|
Anthropic의 Claude 3.5 Sonnet v2 |
|
Anthropic의 Claude 3.5 Sonnet |
✔ |
Anthropic의 Claude 3.5 Haiku |
|
Anthropic의 Claude 3 Opus |
|
Anthropic의 Claude 3 Haiku |
✔ |
DeepSeek-R1-0528 (미리보기) |
|
Llama 4 Maverick 17B-128E (미리보기) |
Llama 4 Scout 17B-16E (미리보기) |
Llama 3.3 70B(프리뷰) |
|
Llama 3.2 90B(프리뷰) |
|
Llama 3.1 405B |
|
Llama 3.1 70B(프리뷰) |
|
Llama 3.1 8B(프리뷰) |
|
Mistral OCR (25.05) |
|
Mistral Small 3.1(25.03) |
|
Mistral Large |
|
Mistral Nemo |
|
Codestral |
|
Jamba 1.5 Large(미리보기) |
|
Jamba 1.5 Mini(미리보기) |
|
다음 단계
달리 명시되지 않는 한 이 페이지의 콘텐츠에는 Creative Commons Attribution 4.0 라이선스에 따라 라이선스가 부여되며, 코드 샘플에는 Apache 2.0 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 Google Developers 사이트 정책을 참조하세요. 자바는 Oracle 및/또는 Oracle 계열사의 등록 상표입니다.
최종 업데이트: 2025-06-23(UTC)
[[["이해하기 쉬움","easyToUnderstand","thumb-up"],["문제가 해결됨","solvedMyProblem","thumb-up"],["기타","otherUp","thumb-up"]],[["이해하기 어려움","hardToUnderstand","thumb-down"],["잘못된 정보 또는 샘플 코드","incorrectInformationOrSampleCode","thumb-down"],["필요한 정보/샘플이 없음","missingTheInformationSamplesINeed","thumb-down"],["번역 문제","translationIssue","thumb-down"],["기타","otherDown","thumb-down"]],["최종 업데이트: 2025-06-23(UTC)"],[],[]]