이 문서에서는 와이드 앤 딥 파이프라인 및 구성요소의 테이블 형식 워크플로를 간략하게 설명합니다. 와이드 앤 딥으로 모델을 학습시키는 방법은 와이드 앤 딥을 사용한 모델 학습을 참조하세요.
와이드 앤 딥은 와이드 선형 모델과 심층신경망을 공동으로 학습시킵니다. 기억과 일반화의 이점을 결합합니다. 일부 온라인 실험 결과, 와이드 앤 딥에서 와이드 전용 및 딥 전용 모델에 비해 Google 스토어 애플리케이션 획득이 크게 증가했습니다.
이점
- Vertex AI와 통합되었습니다. 학습된 모델은 Vertex AI 모델입니다. 일괄 예측을 실행하거나 온라인 예측에 사용되는 모델을 즉시 배포할 수 있습니다.
Vertex AI Pipelines의 와이드 앤 딥
와이드 앤 딥용 테이블 형식 워크플로는 Vertex AI 파이프라인의 관리형 인스턴스입니다.
Vertex AI Pipelines는 Kubeflow 파이프라인을 실행하는 서버리스 서비스입니다. 파이프라인을 사용하여 머신러닝 및 데이터 준비 태스크를 자동화하고 모니터링할 수 있습니다. 파이프라인의 각 단계에서 파이프라인 워크플로 일부를 수행합니다. 예를 들어 파이프라인에 데이터 분할, 데이터 유형 변환, 모델 학습 단계가 포함될 수 있습니다. 단계는 파이프라인 구성요소의 인스턴스이므로 단계에는 입력, 출력, 컨테이너 이미지가 있습니다. 단계 입력은 파이프라인의 입력에서 설정되거나 이 파이프라인 내의 다른 단계의 출력에 따라 달라질 수 있습니다. 이러한 종속 항목은 파이프라인의 워크플로를 방향성 비순환 그래프(DAG)로 정의합니다.
와이드 앤 딥용 테이블 형식 워크플로에는 두 가지 버전이 있습니다.
- HyperparameterTuningJob은 모델 학습에 사용할 최적의 초매개변수 값 집합을 검색합니다.
- CustomJob을 사용하면 모델 학습에 사용할 초매개변수 값을 지정할 수 있습니다. 필요한 초매개변수 값을 정확히 알고 있으면 해당 값을 검색하지 않고 지정하고 학습 리소스에 저장할 수 있습니다.
와이드 앤 딥 CustomJob 파이프라인 및 구성요소 개요
와이드 앤 딥 CustomJob 파이프라인은 다음 다이어그램으로 나타낼 수 있습니다.
파이프라인 구성요소는 다음과 같습니다.
- feature-transform-engine: 특성 추출을 수행합니다. 자세한 내용은 Feature Transform Engine을 참조하세요.
- split-materialized-data: 구체화된 데이터를 학습 세트, 평가 세트, 테스트 세트로 분할합니다.
입력:
- 구체화된 데이터
materialized_data
출력:
- 구체화된 학습 분할
materialized_train_split
- 구체화된 평가 분할
materialized_eval_split
- 구체화된 테스트 세트
materialized_test_split
- 구체화된 데이터
- wide-and-deep-trainer: 모델 학습을 실행합니다.
입력:
- 인스턴스 기준
instance_baseline
- 학습 스키마
training_schema
- 출력 변환
transform_output
- 구체화된 학습 분할
materialized_train_split
- 구체화된 평가 분할
materialized_eval_split
- 구체화된 테스트 세트
materialized_test_split
출력:
- 최종 모델
- 인스턴스 기준
- automl-tabular-infra-validator: 예측 요청을 보내고 성공적으로 완료되었는지 확인하여 학습된 모델을 검증합니다.
- model-upload: 사용자의 Cloud Storage 버킷의 모델을 Vertex AI 모델로 Vertex AI에 업로드합니다.
- condition-run-evaluation-2: 선택사항 테스트 세트를 사용하여 평가 측정항목을 계산합니다.
run_evaluation
이true
로 설정된 경우에만 실행됩니다.
와이드 앤 딥 HyperparameterTuningJob 파이프라인 및 구성요소 개요
와이드 앤 딥 HyperparameterSettingJob 파이프라인은 다음 다이어그램으로 나타낼 수 있습니다.
- feature-transform-engine: 특성 추출을 수행합니다. 자세한 내용은 Feature Transform Engine을 참조하세요.
- split-materialized-data: 구체화된 데이터를 학습 세트, 평가 세트, 테스트 세트로 분할합니다.
입력:
- 구체화된 데이터
materialized_data
출력:
- 구체화된 학습 분할
materialized_train_split
- 구체화된 평가 분할
materialized_eval_split
- 구체화된 테스트 세트
materialized_test_split
- 구체화된 데이터
- get-wide-and-deep-study-spec-parameters: 학습 파이프라인 구성에 따라 연구 사양을 생성합니다. 사용자가
study_spec_parameters_override
값을 제공하면 이러한 값을 사용하여 연구 사양 값을 재정의합니다.입력:
- 연구 사양 매개변수 선택적 재정의
study_spec_parameters_override
출력:
- 초매개변수 조정 작업의 초매개변수 및 범위의 최종 목록
- 연구 사양 매개변수 선택적 재정의
- wide-and-deep-hyperparameter-tuning-job: 초매개변수 조정 시도를 하나 이상 수행합니다.
입력:
- 인스턴스 기준
instance_baseline
- 학습 스키마
training_schema
- 출력 변환
transform_output
- 구체화된 학습 분할
materialized_train_split
- 구체화된 평가 분할
materialized_eval_split
- 구체화된 테스트 세트
materialized_test_split
- 초매개변수 조정 작업의 초매개변수와 해당 범위의 목록
- 인스턴스 기준
- get-best-hyperparameter-tuning-job-trial: 이전 단계의 최고 초매개변수 조정 작업 시도에서 모델을 선택합니다.
출력:
- 최종 모델
- automl-tabular-infra-validator: 예측 요청을 보내고 성공적으로 완료되었는지 확인하여 학습된 모델을 검증합니다.
- model-upload: 사용자의 Cloud Storage 버킷의 모델을 Vertex AI 모델로 Vertex AI에 업로드합니다.
- condition-run-evaluation-2: 선택사항 테스트 세트를 사용하여 평가 측정항목을 계산합니다.
run_evaluation
이true
로 설정된 경우에만 실행됩니다.