Vertex AI는 AI Platform과 AutoML을 하나의 인터페이스로 통합합니다. 이 페이지에서는 AI Platform에 익숙한 사용자를 위해 Vertex AI 및 AI Platform을 비교합니다.
커스텀 학습
Vertex AI를 사용하면 AutoML로 모델을 학습시키거나 AI Platform Training과 유사한 워크플로인 커스텀 학습을 수행할 수 있습니다.
작업 | AI Platform Training | Vertex AI |
---|---|---|
사용할 머신러닝 프레임워크 버전을 선택하세요. | Google Cloud 콘솔 사용자는 프레임워크 이름과 프레임워크 버전을 설정합니다. | |
런타임 버전 - 학습 작업을 제출할 때 원하는 프레임워크와 프레임워크 버전이 포함된 런타임 버전 수를 지정합니다. | 사전 빌드된 컨테이너 - 커스텀 학습 작업을 제출할 때 프레임워크 및 프레임워크 버전에 해당하는 사전 빌드된 컨테이너의 Artifact Registry URI를 지정합니다. | |
커스텀 컨테이너를 사용하여 학습 작업 제출 | 커스텀 컨테이너를 빌드하고 Artifact Registry에서 호스팅한 후 이를 사용하여 학습 앱을 실행합니다. | |
사용할 Google Cloud 리전 설정 | 학습 작업을 전역 엔드포인트(ml.googleapis.com )에 제출할 때 리전 이름을 지정합니다. |
커스텀 학습 작업을 us-central1-aiplatform.googleapis.com 과 같은 리전 엔드포인트에 제출합니다.
전역 엔드포인트가 없습니다. AI Platform에서 사용할 수 있는 일부 리전은 Vertex AI에서 사용할 수 없습니다. 위치 페이지에서 지원되는 리전 목록을 참조하세요.
|
분산 학습용 머신 구성 지정 | 학습 클러스터의 특정 역할(masterConfig , workerConfig , parameterServerConfig , evaluatorConfig )에 따라 이름이 지정된 구성을 지정합니다.
|
구성은 일반 목록입니다. CustomJobSpec.workerPoolSpecs[] 에서 머신 구성을 지정합니다. |
Python 패키지를 사용하여 학습 작업 제출 | Python 패키지와 관련된 필드는 TrainingInput 내의 최상위 수준입니다. |
Python 패키지와 관련된 필드는 pythonPackageSpec 내에 구성됩니다. |
머신 유형 지정 |
|
|
초매개변수 미세 조정 작업 제출 |
hyperparameters 구성으로 학습 작업을 제출합니다. 학습 작업의 초매개변수 조정 여부에 관계없이 TrainingJob API 리소스가 생성됩니다.
|
studySpec 구성으로 초매개변수 조정 작업을 제출합니다. 최상위 수준 API 리소스(HyperparameterTuningJob )가 생성됩니다. 초매개변수 조정 없이 제출된 커스텀 학습 작업은 최상위 수준 CustomJob API 리소스를 만듭니다.
|
학습 파이프라인을 만들어 다른 작업으로 학습 작업 조정 | 조정을 위한 기본 제공 API 리소스가 없으므로 AI Platform 파이프라인, Kubeflow 또는 다른 조정 도구를 사용합니다. | TrainingPipeline 리소스를 만들어 모델 배포로 학습 작업을 조정합니다. |
예측
작업 | AI Platform Prediction | Vertex AI |
---|---|---|
사용할 머신러닝 프레임워크 버전을 선택하세요. | Google Cloud 콘솔 사용자는 프레임워크 이름과 프레임워크 버전을 설정합니다. | |
런타임 버전 - 모델을 배포할 때 원하는 프레임워크와 프레임워크 버전이 포함된 런타임 버전 수를 지정합니다. | 사전 빌드된 컨테이너 - 모델을 배포할 때 프레임워크 및 프레임워크 버전에 해당하는 사전 빌드된 컨테이너의 Artifact Registry URI를 지정합니다. 리전 엔드포인트와 일치하는 멀티 리전 옵션을 사용합니다(예: us-central1 엔드포인트의 경우 us-docker.pkg.dev ). |
|
예측을 사용하여 커스텀 코드 실행 | 커스텀 예측 루틴을 사용합니다. | Vertex AI에서 커스텀 예측 루틴을 사용합니다. |
사용할 Google Cloud 리전 설정 | 전역 API 엔드포인트(ml.googleapis.com )에서 모델을 만들 때 리전 이름을 지정합니다. |
us-central1-aiplatform.googleapis.com 과 같은 리전 엔드포인트에서 모델을 만듭니다.
전역 엔드포인트가 없습니다. AI Platform에서 사용할 수 있는 일부 리전은 Vertex AI에서 사용할 수 없습니다. 위치 페이지에서 지원되는 리전 목록을 참조하세요.
|
모델 아티팩트 저장 | 모델 아티팩트는 Cloud Storage에 저장됩니다. 모델 아티팩트에는 연결된 API 리소스가 없습니다. | 모델 아티팩트에 사용 가능한 관리형 모델 스토리지가 있으며 이는 Model 리소스와 연결됩니다.Vertex AI 관리형 데이터 세트를 사용하지 않고도 Cloud Storage에 저장된 모델을 배포할 수 있습니다. |
모델 배포 | 모델을 온라인 예측에 사용할 수 있도록 직접 배포합니다. |
온라인 예측을 제공하기 위한 리소스를 제공하는 Endpoint 객체를 만듭니다. 그런 다음 모델을 엔드포인트에 배포합니다.
예측을 요청하려면 predict() 메서드를 호출합니다. |
일괄 예측 요청 | Cloud Storage에 저장된 모델에 대한 일괄 예측을 요청하고 요청에 런타임 버전을 지정할 수 있습니다. 또는 배포된 모델에서 일괄 예측을 요청하고 모델 배포 중에 지정된 런타임 버전을 사용할 수 있습니다. | Vertex AI에 모델을 업로드한 다음 사전 빌드된 컨테이너 또는 커스텀 컨테이너를 지정하여 예측을 제공합니다. |
온라인 예측 요청 | JSON 구조에는 인스턴스 목록이 포함됩니다. | JSON 구조에는 인스턴스 목록과 매개변수 필드가 포함됩니다. |
머신 유형 지정 | 버전을 만들 때 사용 가능한 머신 유형을 지정합니다. | AI Platform(MLS1)의 기존 온라인 예측 머신 유형은 지원되지 않습니다. Compute Engine 머신 유형만 사용할 수 있습니다. |
모델 배포 | 모델 리소스를 만든 다음 버전 리소스를 만듭니다. | 모델 리소스를 만들고 엔드포인트 리소스를 만든 후 모델을 엔드포인트에 배포합니다. 엔드포인트에서 트래픽 분할을 지정합니다. |
Vertex Explainable AI
AI Platform용 및 Vertex Explainable AI용 AI Explanations에서 테이블 형식 및 이미지 모델에 대한 특성 기여 분석을 얻을 수 있습니다.
작업 | AI Platform용 AI Explanations | Vertex Explainable AI |
---|---|---|
테이블 형식 모델의 특성 기여 분석을 가져옵니다. | Sampled Shapley 또는 통합 경사를 사용하여 테이블 형식 모델의 특성 기여 분석을 가져옵니다. | |
이미지 모델의 특성 기여 분석을 가져옵니다. | 통합 경사 또는 XRAI를 사용하여 이미지 모델의 특성 기여 분석을 가져옵니다. |