테이블 형식 워크플로의 서비스 계정

이 페이지에서는 다음 테이블 형식 워크플로의 서비스 계정을 설명합니다.

엔드 투 엔드 AutoML용 테이블 형식 워크플로의 서비스 계정

이 워크플로에서는 다음 서비스 계정을 사용합니다.

서비스 계정 설명 기본 주 구성원 기본 이름 재정의 가능
Vertex AI Pipelines용 서비스 계정 파이프라인을 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Dataflow 작업자용 서비스 계정 Dataflow 작업자를 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform 서비스 에이전트 학습 컨테이너를 실행하는 서비스 계정입니다. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent 아니요

일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. Google Cloud 콘솔 또는 API에 관한 안내는 엔드 투 엔드 AutoML로 모델 학습을 참조하세요.

Vertex AI Pipelines용 서비스 계정

파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
Vertex AI 사용자 aiplatform.metadataStores.get을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
스토리지 객체 관리자 스토리지 객체 관리자의 storage.objects.getstorage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. Cloud Storage 데이터 소스를 사용하지 않는 경우에도 서비스 계정에 이 권한이 필요합니다.
Dataflow 개발자 dataflow.jobs.create를 통해 평가 중에 서비스 계정에서 Dataflow 작업을 만들 수 있습니다.
서비스 계정 사용자 iam.serviceAccounts.actAs를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.

Dataflow 작업자용 서비스 계정

파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
Dataflow 작업자 이 역할로 서비스 계정을 통해 Dataflow 작업을 실행하는 데 필요한 리소스에 액세스할 수 있습니다.
스토리지 객체 관리자 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. Cloud Storage 데이터 소스를 사용하지 않는 경우에도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다.

데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
표준 BigQuery 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 작업 사용자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 작업 사용자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 작업 사용자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 작업 사용자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
Cloud Storage 파일 스토리지 객체 뷰어 파일이 속한 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

역할 권한
BigQuery 데이터 편집자 bigquery.jobs.getbigquery.jobs.create 권한이 있으면 서비스 계정에서 BigQuery 데이터 세트를 사용할 수 있습니다. bigquery.jobs.create를 사용하면 통계와 예시를 생성하는 중에 서비스 계정에서 임시 BigQuery 데이터 세트를 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
BigQuery 작업 사용자 bigquery.jobs.create를 통해 서비스 계정에서 BigQuery 데이터 세트를 사용할 수 있습니다.
BigQuery 데이터 뷰어 이 역할은 서비스 계정에 BigQuery 데이터 세트에 대한 액세스 권한을 제공합니다.
스토리지 객체 뷰어 storage.objects.get을 통해 서비스 계정에서 Cloud Storage 파일에 액세스할 수 있습니다.

AI Platform 서비스 에이전트

파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.

역할 권한
Vertex AI 서비스 에이전트 이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.

데이터 소스가 다른 프로젝트의 BigQuery 데이터 세트인 경우 데이터 세트 프로젝트의 AI Platform 서비스 에이전트에 다음 역할을 부여해야 합니다.

역할 권한
BigQuery 데이터 뷰어 bigquery.tables.get을 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 BigQuery 데이터 세트에 대한 정보를 가져올 수 있습니다.

데이터 소스가 다른 프로젝트의 Cloud Storage 파일인 경우 파일 프로젝트의 AI Platform 서비스 에이전트에 다음 역할을 부여해야 합니다.

스토리지 객체 뷰어 storage.objects.list를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Cloud Storage 파일에 대한 정보를 가져올 수 있습니다.

예측용 테이블 형식 워크플로의 서비스 계정

이 워크플로에서는 다음 서비스 계정을 사용합니다.

서비스 계정 설명 기본 주 구성원 기본 이름 재정의 가능
Vertex AI Pipelines용 서비스 계정 파이프라인을 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Dataflow 작업자용 서비스 계정 Dataflow 작업자를 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform 서비스 에이전트 학습 컨테이너를 실행하는 서비스 계정입니다. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent 아니요

일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. 자세한 내용은 예측용 테이블 형식 워크플로를 사용한 모델 학습을 참조하세요.

Vertex AI Pipelines용 서비스 계정

파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
Vertex AI 사용자 aiplatform.metadataStores.get을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
BigQuery 데이터 편집자 bigquery.tables.create를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
서비스 계정 사용자 iam.serviceAccounts.actAs를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
Dataflow 개발자 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다.

데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
Cloud Storage 파일 스토리지 관리자 파일이 속한 프로젝트
표준 BigQuery 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

BigQuery 데이터 뷰어 bigquery.tables.get은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다.
스토리지 객체 뷰어 storage.objects.get을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다.
스토리지 객체 관리자 storage.objects.getstorage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
스토리지 관리자 storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다.

모델 평가를 수행하는 경우 예측된 예시의 대상으로 사용할 BigQuery 데이터 세트를 제공해야 합니다. 이 데이터 세트가 포함된 프로젝트에서 Vertex AI Pipelines 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
BigQuery 데이터 뷰어 이 역할을 통해 서비스 계정에서 BigQuery 데이터를 볼 수 있습니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 서비스 계정에서 BigQuery 작업을 만들 수 있습니다.

Dataflow 작업자용 서비스 계정

파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
스토리지 객체 관리자 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 서비스 계정에 이 권한이 필요합니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계를 수행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
Dataflow 작업자 서비스 계정에는 이 역할로 부여되는 모든 권한이 필요합니다.

데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
표준 BigQuery 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
Cloud Storage 파일 BigQuery 데이터 뷰어 파이프라인을 실행하는 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

역할 권한
BigQuery 데이터 뷰어 bigquery.tables.get은 파이프라인의 Feature Transform Engine 단계에서 데이터 세트에 대한 액세스 권한을 제공합니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
BigQuery 데이터 편집자 이 역할로 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계 중에 테이블을 쿼리하고 임시 테이블을 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
스토리지 객체 뷰어 storage.objects.get을 사용하면 서비스 계정을 통해 Cloud Storage 파일에 액세스할 수 있습니다.

AI Platform 서비스 에이전트

파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.

역할 권한
Vertex AI 서비스 에이전트 이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.

모델 평가를 수행하는 경우 예측된 예시의 대상으로 사용할 BigQuery 데이터 세트를 제공해야 합니다. 이 데이터 세트가 포함된 프로젝트에서 Vertex AI Pipelines 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
BigQuery 데이터 편집자 이 역할을 통해 서비스 계정에서 BigQuery 데이터를 수정할 수 있습니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 서비스 계정에서 BigQuery 작업을 만들 수 있습니다.

TabNet용 테이블 형식 워크플로와 와이드 앤 딥 및 Prophet용 테이블 형식 워크플로의 서비스 계정

이 워크플로에서는 다음 서비스 계정을 사용합니다.

서비스 계정 설명 기본 주 구성원 기본 이름 재정의 가능
Vertex AI Pipelines용 서비스 계정 파이프라인을 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
Dataflow 작업자용 서비스 계정 Dataflow 작업자를 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform 서비스 에이전트 학습 컨테이너를 실행하는 서비스 계정입니다. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent 아니요

일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. TabNet용 테이블 형식 워크플로에 대한 안내는 TabNet으로 모델 학습을 참조하세요. 와이드 앤 딥용 테이블 형식 워크플로에 대한 안내는 와이드 앤 딥으로 모델 학습을 참조하세요. Prophet에 대한 안내는 Prophet으로 예측을 참조하세요.

Vertex AI Pipelines용 서비스 계정

파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
Vertex AI 사용자 aiplatform.metadataStores.get을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
BigQuery 데이터 편집자 bigquery.tables.create를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
서비스 계정 사용자 iam.serviceAccounts.actAs를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
Dataflow 개발자 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다.

데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
Cloud Storage 파일 스토리지 관리자 파일이 속한 프로젝트
표준 BigQuery 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

BigQuery 데이터 뷰어 bigquery.tables.get은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다.
스토리지 객체 뷰어 storage.objects.get을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다.
스토리지 객체 관리자 storage.objects.getstorage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
스토리지 관리자 storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다.

Dataflow 작업자용 서비스 계정

파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
스토리지 객체 관리자 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 서비스 계정에 이 권한이 필요합니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계를 수행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
Dataflow 작업자 서비스 계정에는 이 역할로 부여되는 모든 권한이 필요합니다.

데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
표준 BigQuery 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 BigQuery 데이터 편집자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
Cloud Storage 파일 BigQuery 데이터 뷰어 파이프라인을 실행하는 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

역할 권한
BigQuery 데이터 뷰어 bigquery.tables.get은 파이프라인의 Feature Transform Engine 단계에서 데이터 세트에 대한 액세스 권한을 제공합니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
BigQuery 데이터 편집자 이 역할로 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계 중에 테이블을 쿼리하고 임시 테이블을 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
스토리지 객체 뷰어 storage.objects.get을 사용하면 서비스 계정을 통해 Cloud Storage 파일에 액세스할 수 있습니다.

AI Platform 서비스 에이전트

파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.

역할 권한
Vertex AI 서비스 에이전트 이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.

ARIMA+의 서비스 계정

이 워크플로에서는 다음 서비스 계정을 사용합니다.

서비스 계정 설명 기본 주 구성원 기본 이름 재정의 가능
Vertex AI Pipelines용 서비스 계정 파이프라인을 실행하는 서비스 계정 PROJECT_NUMBER-compute@developer.gserviceaccount.com Compute Engine default service account
AI Platform 서비스 에이전트 학습 컨테이너를 실행하는 서비스 계정입니다. service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com AI Platform Service Agent 아니요

Vertex AI Pipelines 서비스 계정을 원하는 계정으로 변경할 수 있습니다. 자세한 내용은 ARIMA+를 사용한 예측을 참조하세요.

Vertex AI Pipelines용 서비스 계정

파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.

역할 권한
Vertex AI 사용자 aiplatform.metadataStores.get을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
BigQuery 데이터 편집자 bigquery.tables.create를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
BigQuery 작업 사용자 bigquery.jobs.create를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다.
서비스 계정 사용자 iam.serviceAccounts.actAs를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
Dataflow 개발자 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다.

데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.

데이터 소스 역할 역할을 부여할 위치
Cloud Storage 파일 스토리지 관리자 파일이 속한 프로젝트
표준 BigQuery 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
표준 BigQuery 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 테이블이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블BigQuery 뷰 스토리지 객체 관리자 파이프라인을 실행하는 프로젝트
BigQuery 데이터 뷰어 뷰가 속한 프로젝트
BigQuery 데이터 뷰어 외부 테이블이 속한 프로젝트
스토리지 객체 뷰어 소스 파일이 속한 프로젝트

다음 표는 역할에 대한 설명을 제공합니다.

BigQuery 데이터 뷰어 bigquery.tables.get은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다.
스토리지 객체 뷰어 storage.objects.get을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다.
스토리지 객체 관리자 storage.objects.getstorage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다.
스토리지 관리자 storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다.

AI Platform 서비스 에이전트

파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.

역할 권한
Vertex AI 서비스 에이전트 이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.