Vertex AI는 학습된 모델 아티팩트로부터 예측과 설명을 제공하기 위한 사전 빌드된 컨테이너로서 실행되는 Docker 컨테이너 이미지를 제공합니다. 머신러닝 (ML) 프레임워크 및 프레임워크 버전으로 구성된 이러한 컨테이너는 최소한의 구성으로 예측을 제공하는 데 사용할 수 있는 HTTP 예측 서버를 제공합니다. 대부분의 경우 사전 빌드된 컨테이너를 사용하는 것이 예측용 커스텀 컨테이너를 만드는 것보다 간단합니다.
이 문서는 예측 및 설명용으로 사전 빌드된 컨테이너의 목록을 제공하고 Vertex AI의 커스텀 학습 기능을 사용하여 만든 모델 아티팩트 또는 Vertex AI 외부에서 만든 모델 아티팩트로 이들 사전 빌드 컨테이너를 사용하는 방법을 설명합니다.
지원 정책 및 일정
Vertex AI는 보안 취약점을 최소화하도록 일정에 따라 각 프레임워크 버전을 지원합니다. 지원 정책 일정을 검토하여 지원 종료 및 사용 종료 날짜가 미치는 영향을 파악합니다.
사용 가능한 컨테이너 이미지
다음 각 컨테이너 이미지는 여러 Artifact Registry 저장소에서 제공되며, 이러한 저장소는 데이터를 다양한 위치에 저장합니다. 커스텀 학습을 수행할 때 이미지의 URI 중 어느 것이나 사용할 수 있습니다. 모두 동일한 컨테이너 이미지를 제공합니다. Google Cloud 콘솔을 사용하여 Model
리소스를 생성하는 경우, Google Cloud 콘솔은 지연 시간을 줄이기 위해 Vertex AI를 사용 중인 위치에 가장 적합한 URI를 선택합니다.
TensorFlow
ML 프레임워크 버전 | 지원되는 가속기(해당하는 경우 CUDA 버전) | 패치 및 지원 종료일 | 지원 종료 | 지원되는 이미지 |
---|---|---|---|---|
2.13 | CPU만 | 2024년 11월 28일 | 2025년 11월 28일 |
|
2.13 | GPU(CUDA 12.x) | 2024년 11월 28일 | 2025년 11월 28일 |
|
2.12 | CPU만 | 2024년 6월 30일 | 2025년 6월 30일 |
|
2.12 | GPU(CUDA 11.x) | 2024년 6월 30일 | 2025년 6월 30일 |
|
2.11 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.11 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.10 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.10 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.9 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.9 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.8 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.8 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.7 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.7 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.6 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.6 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.5 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.5 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.4 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.4 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.3 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.3 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.2 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.2 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.1 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.1 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.15 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.15 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
최적화된 TensorFlow 런타임
다음 컨테이너 이미지는 최적화된 TensorFlow 런타임을 사용합니다. 자세한 내용은 최적화된 TensorFlow 런타임 사용을 참조하세요.
ML 프레임워크 버전 | 지원되는 가속기(해당하는 경우 CUDA 버전) | 패치 및 지원 종료일 | 지원 종료 | 지원되는 이미지 |
---|---|---|---|---|
nightly | CPU만 | 해당 없음 | 해당 없음 |
|
nightly | GPU(CUDA 12.x) | 해당 없음 | 해당 없음 |
|
nightly | Cloud TPU | 해당 없음 | 해당 없음 |
|
2.17 | CPU만 | 2024년 7월 11일 | 2025년 7월 11일 |
|
2.17 | GPU(CUDA 12.x) | 2024년 7월 11일 | 2025년 7월 11일 |
|
2.17 | Cloud TPU | 2024년 7월 11일 | 2025년 7월 11일 |
|
2.16 | CPU만 | 2024년 4월 26일 | 2025년 4월 26일 |
|
2.16 | GPU(CUDA 12.x) | 2024년 4월 26일 | 2025년 4월 26일 |
|
2.16 | Cloud TPU | 2024년 4월 26일 | 2025년 4월 26일 |
|
2.15 | CPU만 | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.15 | GPU(CUDA 12.x) | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.15 | Cloud TPU | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.14 | CPU만 | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.14 | GPU(CUDA 12.x) | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.13 | CPU만 | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.13 | GPU(CUDA 11.x) | 2024년 8월 15일 | 2025년 8월 15일 |
|
2.12 | CPU만 | 2024년 5월 15일 | 2025년 5월 15일 |
|
2.12 | GPU(CUDA 11.x) | 2024년 5월 15일 | 2025년 5월 15일 |
|
2.11 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.11 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.10 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.10 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.9 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.9 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.8 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
2.8 | GPU(CUDA 11.x) | 2023년 11월 15일 | 2024년 11월 15일 |
|
PyTorch
ML 프레임워크 버전 | 지원되는 가속기(해당하는 경우 CUDA 버전) | 패치 및 지원 종료일 | 지원 종료 | 지원되는 이미지 |
---|---|---|---|---|
2.1(Python 3.9) | CPU만 | 2024년 12월 1일 | 2025년 12월 1일 |
|
2.1(Python 3.9) | GPU(CUDA 12.x) | 2024년 12월 1일 | 2025년 12월 1일 |
|
2.1(Python 3.9) | Cloud TPU | 2024년 12월 1일 | 2025년 12월 1일 |
|
2.0(Python 3.9) | CPU만 | 2024년 7월 27일 | 2025년 7월 27일 |
|
2.0(Python 3.9) | GPU(CUDA 11.x) | 2024년 7월 27일 | 2025년 7월 27일 |
|
1.13(Python 3.8) | CPU만 | 2024년 5월 15일 | 2025년 5월 15일 |
|
1.13(Python 3.8) | GPU(CUDA 11.x) | 2024년 5월 15일 | 2025년 5월 15일 |
|
1.12 | CPU만 | 2024년 5월 15일 | 2025년 5월 15일 |
|
1.12 | GPU(CUDA 11.x) | 2024년 5월 15일 | 2025년 5월 15일 |
|
1.11 | CPU만 | 2024년 5월 15일 | 2025년 5월 15일 |
|
1.11 | GPU(CUDA 11.x) | 2024년 5월 15일 | 2025년 5월 15일 |
|
scikit-learn
ML 프레임워크 버전 | 지원되는 가속기(해당하는 경우 CUDA 버전) | 패치 및 지원 종료일 | 지원 종료 | 지원되는 이미지 |
---|---|---|---|---|
1.3(Python 3.10) | CPU만 | 2024년 11월 28일 | 2025년 11월 28일 |
|
1.2(Python 3.10) | CPU만 | 2024년 6월 30일 | 2025년 6월 30일 |
|
1.0 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.24 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.23 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.22 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.20 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
XGBoost
ML 프레임워크 버전 | 지원되는 가속기(해당하는 경우 CUDA 버전) | 패치 및 지원 종료일 | 지원 종료 | 지원되는 이미지 |
---|---|---|---|---|
1.7(Python 3.10) | CPU만 | 2024년 6월 30일 | 2025년 6월 30일 |
|
1.6 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.5 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.4 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.3 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.2 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
1.1 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.90 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
0.82 | CPU만 | 2023년 11월 15일 | 2024년 11월 15일 |
|
사전 빌드된 컨테이너 사용
Model
을 업로드하는 커스텀 TrainingPipeline
리소스를 만들거나 모델 아티팩트를 Model
로 가져올 때 사전 빌드된 컨테이너를 예측에 지정할 수 있습니다.
이러한 사전 빌드된 컨테이너 중 하나를 사용하려면 모델을 사전 빌드된 컨테이너의 요구사항을 준수하는 하나 이상의 모델 아티팩트로 저장해야 합니다. 자세한 내용은 예측을 위해 모델 아티팩트 내보내기를 참고하세요.
다음 노트북은 사전 빌드된 컨테이너를 사용하여 예측을 제공하는 방법을 보여줍니다.
수행할 작업은 무엇인가? | 노트북 |
---|---|
사전 빌드된 컨테이너를 사용하여 TensorFlow 모델 학습 및 제공 | 커스텀 학습 및 온라인 예측 |
사전 빌드된 컨테이너를 사용하여 PyTorch 모델 제공 | Vertex AI에서 사전 빌드된 컨테이너로 PyTorch 이미지 모델 제공 |
사전 빌드된 컨테이너를 사용하여 안정적인 분산 모델 제공 | Vertex AI에서 안정적인 분산 모델 배포 및 호스팅 |
Notebooks
다음 단계
- 예측을 제공하기 위해 모델을 엔드포인트에 배포하는 방법을 알아보세요.