Vertex AI를 사용하면 간단한 프로세스와 인터페이스를 사용하여 테이블 형식의 데이터로 머신러닝을 수행할 수 있습니다. 테이블 형식 데이터 문제의 경우 다음 모델 유형을 만들 수 있습니다.
- 바이너리 분류 모델은 이진 결과(2개 클래스 중 하나)를 예측합니다. 예 또는 아니요로 답할 수 있는 질문인 경우 이 모델 유형을 사용하세요. 예를 들어 고객이 구독을 구매할지 여부를 예측하는 이진 분류 모델을 빌드할 수 있습니다. 일반적으로 이진 분류 문제는 다른 모델 유형에 비해 적은 데이터가 필요합니다.
- 다중 클래스 분류 모델은 3개 이상의 개별 클래스 중 하나를 예측합니다. 분류에 이 모델 유형을 사용합니다. 예를 들어 소매업체의 경우 다중 클래스 분류 모델을 빌드하여 고객을 여러 페르소나로 구분할 수 있습니다.
- 회귀 모델은 연속된 값을 예측합니다. 예를 들어 소매업체의 경우 회귀 모델을 빌드하여 고객이 다음 달에 지출할 비용을 예측할 수 있습니다.
- 예측 모델은 일련의 값을 예측합니다. 예를 들어 소매업체의 경우 앞으로 3개월 동안 일일 제품 수요를 예측하여 제품 인벤토리에 재고를 사전에 공급할 수 있습니다.
테이블 형식 데이터를 사용한 머신러닝에 대한 소개는 테이블 형식 데이터 소개를 참조하세요. Vertex AI 솔루션에 대한 자세한 내용은 분류 및 회귀용 Vertex AI 솔루션 및 예측용 Vertex AI 솔루션을 참조하세요.
공정성에 대한 참고사항
Google은 책임감 있는 AI 관행을 따르기 위해 노력하고 있습니다. 이를 위해 AutoML을 포함한 Google ML 제품은 공정성 및 인간 중심의 머신러닝과 같은 핵심 원칙을 기반으로 설계되었습니다. 자체 ML 시스템을 빌드할 때 편향을 완화할 수 있는 권장사항에 대한 자세한 내용은 포괄적인 ML 가이드 - AutoML을 참조하세요.
분류 및 회귀용 Vertex AI 솔루션
Vertex AI는 분류 및 회귀를 위해 다음 솔루션을 제공합니다.
엔드 투 엔드 AutoML의 테이블 형식 워크플로
엔드 투 엔드 AutoML의 테이블 형식 워크플로는 분류 및 회귀 태스크를 위한 완전 AutoML 파이프라인입니다. AutoML API와 비슷하지만 제어할 항목과 자동화할 항목을 선택할 수 있습니다. 전체 파이프라인을 제어하는 대신 파이프라인의 모든 단계를 제어할 수 있습니다. 이러한 파이프라인 제어에는 다음이 포함됩니다.
- 데이터 분할
- 특성 추출
- 아키텍처 검색
- 모델 학습
- 모델 앙상블
- 모델 정제
이점
- 크기가 수 TB이고 열이 최대 1,000개까지 있는 대규모 데이터 세트를 지원합니다.
- 아키텍처 유형의 검색 공간을 제한하거나 아키텍처 검색을 건너뛰어 안정성을 높이고 학습 시간을 낮출 수 있습니다.
- 학습 및 아키텍처 검색에 사용되는 하드웨어를 수동으로 선택하여 학습 속도를 향상시킬 수 있습니다.
- 정제를 사용하거나 앙상블 크기를 변경하여 모델 크기를 줄이고 지연 시간을 개선할 수 있습니다.
- 변환된 데이터 테이블, 평가된 모델 아키텍처, 기타 다양한 세부정보를 볼 수 있는 강력한 파이프라인 그래프 인터페이스에서 각 AutoML 구성요소를 검사할 수 있습니다.
- 각 AutoML 구성요소는 매개변수, 하드웨어, 뷰 프로세스 상태, 로그 등을 맞춤설정할 수 있게 하는 등 유연성과 투명성이 확장됩니다.
테이블 형식 워크플로에 대해 자세히 알아보려면 Vertex AI의 테이블 형식 워크플로를 참고하세요. 엔드 투 엔드 AutoML을 위한 테이블 형식 워크플로에 대해 자세히 알아보려면 엔드 투 엔드 AutoML을 위한 테이블 형식 워크플로를 참고하세요.
TabNet의 테이블 형식 워크플로
TabNet의 테이블 형식 워크플로는 분류 또는 회귀 모델을 학습시키는 데 사용할 수 있는 파이프라인입니다. TabNet은 순차적 주의를 사용하여 각 결정 단계에서 추론할 특성을 선택합니다. 이렇게 하면 학습 용량이 가장 중요한 특징에 사용되므로 해석 가능성과 학습 효율성이 향상됩니다.
이점
- 데이터 세트 크기, 예측 유형, 학습 예산에 따라 적절한 초매개변수 검색 공간을 자동으로 선택합니다.
- Vertex AI와 통합되었습니다. 학습된 모델은 Vertex AI 모델입니다. 일괄 예측을 실행하거나 온라인 예측에 사용되는 모델을 즉시 배포할 수 있습니다.
- 고유한 모델 해석 가능성을 제공합니다. TabNet의 의사 결정에 사용된 기능에 대한 통찰력을 얻을 수 있습니다.
- GPU 학습을 지원합니다.
테이블 형식 워크플로에 대해 자세히 알아보려면 Vertex AI의 테이블 형식 워크플로를 참고하세요. TabNet용 테이블 형식 워크플로에 대해 자세히 알아보려면 TabNet용 테이블 형식 워크플로를 참고하세요.
와이드 앤 딥의 테이블 형식 워크플로
와이드 앤 딥의 테이블 형식 워크플로는 분류 또는 회귀 모델을 학습시키는 데 사용할 수 있는 파이프라인입니다. 와이드 앤 딥은 와이드 선형 모델과 심층신경망을 공동으로 학습시킵니다. 기억과 일반화의 이점을 결합합니다. 일부 온라인 실험 결과, 와이드 앤 딥에서 와이드 전용 및 딥 전용 모델에 비해 Google 스토어 애플리케이션 획득이 크게 증가했습니다.
이점
- Vertex AI와 통합되었습니다. 학습된 모델은 Vertex AI 모델입니다. 일괄 예측을 실행하거나 온라인 예측에 사용되는 모델을 즉시 배포할 수 있습니다.
테이블 형식 워크플로에 대해 자세히 알아보려면 Vertex AI의 테이블 형식 워크플로를 참고하세요. 와이드 앤 딥용 테이블 형식 워크플로에 대해 자세히 알아보려면 와이드 앤 딥용 테이블 형식 워크플로를 참고하세요.
AutoML을 사용한 분류 및 회귀
Vertex AI는 엔드 투 엔드 분류 또는 회귀 태스크를 위한 완전 관리형 통합 파이프라인을 제공합니다. Vertex AI는 최적의 초매개변수 집합을 검색하고, 여러 초매개변수 집합으로 여러 모델을 학습시킨 후 최상위 모델의 앙상블에서 최종 모델을 하나 만듭니다. Vertex AI는 모델 유형에 신경망과 부스티드 트리를 고려합니다.
이점
- 손쉬운 사용: 모델 유형, 모델 매개변수, 하드웨어가 자동으로 선택됩니다.
자세한 내용은 분류 및 회귀 개요를 참조하세요.
예측용 Vertex AI 솔루션
Vertex AI는 다음과 같은 예측 솔루션을 제공합니다.
예측용 테이블 형식 워크플로
예측용 테이블 형식 워크플로는 예측 태스크의 전체 파이프라인입니다. AutoML API와 비슷하지만 제어할 항목과 자동화할 항목을 선택할 수 있습니다. 전체 파이프라인을 제어하는 대신 파이프라인의 모든 단계를 제어할 수 있습니다. 이러한 파이프라인 제어에는 다음이 포함됩니다.
- 데이터 분할
- 특성 추출
- 아키텍처 검색
- 모델 학습
- 모델 앙상블
이점
- 크기가 최대 1TB이고 열이 최대 200개까지 있는 대규모 데이터 세트를 지원합니다.
- 아키텍처 유형의 검색 공간을 제한하거나 아키텍처 검색을 건너뛰어 안정성을 높이고 학습 시간을 낮출 수 있습니다.
- 학습 및 아키텍처 검색에 사용되는 하드웨어를 수동으로 선택하여 학습 속도를 향상시킬 수 있습니다.
- 일부 모델 학습 방법의 경우 앙상블 크기를 변경하여 모델 크기를 줄이고 지연 시간을 개선할 수 있습니다.
- 변환된 데이터 테이블, 평가된 모델 아키텍처, 기타 다양한 세부정보를 볼 수 있는 강력한 파이프라인 그래프 인터페이스에서 각 구성요소를 검사할 수 있습니다.
- 각 구성요소는 매개변수, 하드웨어, 뷰 프로세스 상태, 로그 등을 맞춤설정할 수 있게 하는 등 유연성과 투명성이 확장됩니다.
테이블 형식 워크플로에 대해 자세히 알아보려면 Vertex AI의 테이블 형식 워크플로를 참고하세요. 예측용 테이블 형식 워크플로에 대해 자세히 알아보려면 예측용 테이블 형식 워크플로를 참고하세요.
AutoML을 사용한 예측
Vertex AI는 엔드 투 엔드 예측 태스크를 위한 통합된 완전 관리형 파이프라인을 제공합니다. Vertex AI는 최적의 초매개변수 집합을 검색하고, 여러 초매개변수 집합으로 여러 모델을 학습시킨 후 최상위 모델의 앙상블에서 최종 모델을 하나 만듭니다. 모델 학습 방법으로 Time series Dense Encoder(TiDE), Temporal Fusion Transformer(TFT), AutoML(L2L), Seq2Seq+ 중에서 선택할 수 있습니다. Vertex AI는 모델 유형으로 신경망만 고려합니다.
혜택
- 손쉬운 사용: 모델 매개변수와 하드웨어가 자동으로 선택됩니다.
자세한 내용은 예측 개요를 참조하세요.
BigQuery ML ARIMA_PLUS로 예측
BigQuery ML ARIMA_PLUS는 일변량 예측 모델입니다. 통계 모델은 신경망 기반 모델보다 학습 속도가 빠릅니다. 모델 학습을 여러 번 빠르게 반복해야 하거나 다른 모델을 측정하기 위한 경제적인 기준이 필요한 경우 BigQuery ML ARIMA_PLUS 모델을 학습시키는 것이 좋습니다.
Prophet과 마찬가지로 BigQuery ML ARIMA_PLUS는 각 시계열을 트렌드, 계절, 공휴일로 분할하고 이러한 모델의 예측 집계를 사용하여 예측을 생성하려고 시도합니다. 하지만 여러 차이점 중 하나는 BQML ARIMA+가 ARIMA를 사용하여 트렌드 구성요소를 모델링하는 반면 Prophet은 개별 로지스틱 또는 선형 모델을 사용하여 곡선에 맞추려 시도한다는 점입니다.
Google Cloud는 BigQuery ML ARIMA_PLUS 모델을 학습시키기 위한 파이프라인과 BigQuery ML ARIMA_PLUS 모델에서 일괄 예측을 수행하기 위한 파이프라인을 제공합니다. 두 파이프라인 모두 Google Cloud 파이프라인 구성요소(GCPC)의 Vertex AI 파이프라인의 인스턴스입니다.
혜택
- 손쉬운 사용: 모델 매개변수와 하드웨어가 자동으로 선택됩니다.
- 빠른 학습: 모델 학습은 다른 모델과 비교하여 저가의 기준을 제공합니다.
자세한 내용은 ARIMA+로 예측을 참조하세요.
Prophet으로 예측
Prophet은 메타를 통해 유지되는 예측 모델입니다. 알고리즘 세부정보는 Prophet 자료, 라이브러리에 대한 자세한 내용은 해당 문서를 참조하세요.
BigQuery ML ARIMA_PLUS와 마찬가지로 Prophet은 각 시계열을 트렌드, 계절, 공휴일로 분할하고 이러한 모델의 예측 집계를 사용하여 예측을 생성하려고 시도합니다. 하지만 중요한 차이점은 BQML ARIMA+는 ARIMA를 사용하여 트렌드 구성요소를 모델링하는 반면 Prophet은 개별 로지스틱 또는 선형 모델을 사용하여 곡선에 맞추려 시도한다는 것입니다.
Google Cloud는 Prophet 모델을 학습하기 위한 파이프라인과 Prophet 모델에서 일괄 예측을 수행하기 위한 파이프라인을 제공합니다. 두 파이프라인 모두 Google Cloud 파이프라인 구성요소(GCPC)의 Vertex AI Pipelines의 인스턴스입니다.
Prophet을 Vertex AI와 통합하면 다음을 수행할 수 있습니다.
- Vertex AI 데이터 분할 및 윈도잉 전략을 사용합니다.
- Cloud Storage에 저장된 BigQuery 테이블이나 CSV에서 데이터를 읽습니다. Vertex AI는 각 행의 형식이 Vertex AI 예측과 동일한 형식을 가질 것으로 예상합니다.
Prophet은 다변량 모델이지만 Vertex AI는 일변량 버전만 지원합니다.
혜택
- 유연성: 학습에 사용되는 하드웨어를 선택하여 학습 속도를 향상시킬 수 있습니다.
자세한 내용은 Prophet으로 예측을 참조하세요.
다음 단계
- 테이블 형식 데이터를 사용한 머신러닝에 대해 알아보기
- AutoML을 사용한 분류 및 회귀 알아보기
- AutoML을 사용한 예측에 대해 알아보세요.
- Prophet으로 예측 알아보기
- BigQuery ML ARIMA_PLUS로 예측 알아보기
- 테이블 형식 워크플로 알아보기