이 페이지에서는 다음 테이블 형식 워크플로의 서비스 계정을 설명합니다.
엔드 투 엔드 AutoML용 테이블 형식 워크플로의 서비스 계정
이 워크플로에서는 다음 서비스 계정을 사용합니다.
서비스 계정 | 설명 | 기본 주 구성원 | 기본 이름 | 재정의 가능 |
---|---|---|---|---|
Vertex AI Pipelines용 서비스 계정 | 파이프라인을 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
Dataflow 작업자용 서비스 계정 | Dataflow 작업자를 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
AI Platform 서비스 에이전트 | 학습 컨테이너를 실행하는 서비스 계정입니다. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
아니요 |
일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. Google Cloud 콘솔 또는 API에 관한 안내는 엔드 투 엔드 AutoML로 모델 학습을 참조하세요.
Vertex AI Pipelines용 서비스 계정
파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 사용자 |
aiplatform.metadataStores.get 을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload 를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
|
스토리지 객체 관리자 | 스토리지 객체 관리자의 storage.objects.get 및 storage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. Cloud Storage 데이터 소스를 사용하지 않는 경우에도 서비스 계정에 이 권한이 필요합니다. |
Dataflow 개발자 | dataflow.jobs.create 를 통해 평가 중에 서비스 계정에서 Dataflow 작업을 만들 수 있습니다. |
서비스 계정 사용자 |
iam.serviceAccounts.actAs 를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
|
Dataflow 작업자용 서비스 계정
파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
Dataflow 작업자 | 이 역할로 서비스 계정을 통해 Dataflow 작업을 실행하는 데 필요한 리소스에 액세스할 수 있습니다. |
스토리지 객체 관리자 | 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. Cloud Storage 데이터 소스를 사용하지 않는 경우에도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 |
---|---|---|
표준 BigQuery 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 작업 사용자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
표준 BigQuery 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 작업 사용자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 작업 사용자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 작업 사용자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
Cloud Storage 파일 | 스토리지 객체 뷰어 | 파일이 속한 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 편집자 | bigquery.jobs.get 및 bigquery.jobs.create 권한이 있으면 서비스 계정에서 BigQuery 데이터 세트를 사용할 수 있습니다. bigquery.jobs.create 를 사용하면 통계와 예시를 생성하는 중에 서비스 계정에서 임시 BigQuery 데이터 세트를 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 통해 서비스 계정에서 BigQuery 데이터 세트를 사용할 수 있습니다. |
BigQuery 데이터 뷰어 | 이 역할은 서비스 계정에 BigQuery 데이터 세트에 대한 액세스 권한을 제공합니다. |
스토리지 객체 뷰어 | storage.objects.get 을 통해 서비스 계정에서 Cloud Storage 파일에 액세스할 수 있습니다. |
AI Platform 서비스 에이전트
파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 서비스 에이전트 |
이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.
|
데이터 소스가 다른 프로젝트의 BigQuery 데이터 세트인 경우 데이터 세트 프로젝트의 AI Platform 서비스 에이전트에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 뷰어 | bigquery.tables.get 을 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 BigQuery 데이터 세트에 대한 정보를 가져올 수 있습니다. |
데이터 소스가 다른 프로젝트의 Cloud Storage 파일인 경우 파일 프로젝트의 AI Platform 서비스 에이전트에 다음 역할을 부여해야 합니다.
스토리지 객체 뷰어 | storage.objects.list 를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Cloud Storage 파일에 대한 정보를 가져올 수 있습니다. |
예측용 테이블 형식 워크플로의 서비스 계정
이 워크플로에서는 다음 서비스 계정을 사용합니다.
서비스 계정 | 설명 | 기본 주 구성원 | 기본 이름 | 재정의 가능 |
---|---|---|---|---|
Vertex AI Pipelines용 서비스 계정 | 파이프라인을 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
Dataflow 작업자용 서비스 계정 | Dataflow 작업자를 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
AI Platform 서비스 에이전트 | 학습 컨테이너를 실행하는 서비스 계정입니다. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
아니요 |
일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. 자세한 내용은 예측용 테이블 형식 워크플로를 사용한 모델 학습을 참조하세요.
Vertex AI Pipelines용 서비스 계정
파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 사용자 |
aiplatform.metadataStores.get 을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload 를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
|
BigQuery 데이터 편집자 | bigquery.tables.create 를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
서비스 계정 사용자 |
iam.serviceAccounts.actAs 를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
|
Dataflow 개발자 | 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다. |
데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 | |
---|---|---|---|
Cloud Storage 파일 | 스토리지 관리자 | 파일이 속한 프로젝트 | |
표준 BigQuery 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
표준 BigQuery 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
BigQuery 데이터 뷰어 | bigquery.tables.get 은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다. |
스토리지 객체 뷰어 | storage.objects.get 을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다. |
스토리지 객체 관리자 | storage.objects.get 및 storage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
스토리지 관리자 | storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다. |
모델 평가를 수행하는 경우 예측된 예시의 대상으로 사용할 BigQuery 데이터 세트를 제공해야 합니다. 이 데이터 세트가 포함된 프로젝트에서 Vertex AI Pipelines 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 뷰어 | 이 역할을 통해 서비스 계정에서 BigQuery 데이터를 볼 수 있습니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 서비스 계정에서 BigQuery 작업을 만들 수 있습니다. |
Dataflow 작업자용 서비스 계정
파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
스토리지 객체 관리자 | 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 서비스 계정에 이 권한이 필요합니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계를 수행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
Dataflow 작업자 | 서비스 계정에는 이 역할로 부여되는 모든 권한이 필요합니다. |
데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 |
---|---|---|
표준 BigQuery 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
표준 BigQuery 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
Cloud Storage 파일 | BigQuery 데이터 뷰어 | 파이프라인을 실행하는 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 뷰어 | bigquery.tables.get 은 파이프라인의 Feature Transform Engine 단계에서 데이터 세트에 대한 액세스 권한을 제공합니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
BigQuery 데이터 편집자 | 이 역할로 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계 중에 테이블을 쿼리하고 임시 테이블을 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
스토리지 객체 뷰어 | storage.objects.get 을 사용하면 서비스 계정을 통해 Cloud Storage 파일에 액세스할 수 있습니다. |
AI Platform 서비스 에이전트
파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 서비스 에이전트 |
이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.
|
모델 평가를 수행하는 경우 예측된 예시의 대상으로 사용할 BigQuery 데이터 세트를 제공해야 합니다. 이 데이터 세트가 포함된 프로젝트에서 Vertex AI Pipelines 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 편집자 | 이 역할을 통해 서비스 계정에서 BigQuery 데이터를 수정할 수 있습니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 서비스 계정에서 BigQuery 작업을 만들 수 있습니다. |
TabNet용 테이블 형식 워크플로와 와이드 앤 딥 및 Prophet용 테이블 형식 워크플로의 서비스 계정
이 워크플로에서는 다음 서비스 계정을 사용합니다.
서비스 계정 | 설명 | 기본 주 구성원 | 기본 이름 | 재정의 가능 |
---|---|---|---|---|
Vertex AI Pipelines용 서비스 계정 | 파이프라인을 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
Dataflow 작업자용 서비스 계정 | Dataflow 작업자를 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
AI Platform 서비스 에이전트 | 학습 컨테이너를 실행하는 서비스 계정입니다. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
아니요 |
일부 서비스 계정을 원하는 계정으로 변경할 수 있습니다. TabNet용 테이블 형식 워크플로에 대한 안내는 TabNet으로 모델 학습을 참조하세요. 와이드 앤 딥용 테이블 형식 워크플로에 대한 안내는 와이드 앤 딥으로 모델 학습을 참조하세요. Prophet에 대한 안내는 Prophet으로 예측을 참조하세요.
Vertex AI Pipelines용 서비스 계정
파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 사용자 |
aiplatform.metadataStores.get 을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload 를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
|
BigQuery 데이터 편집자 | bigquery.tables.create 를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
서비스 계정 사용자 |
iam.serviceAccounts.actAs 를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
|
Dataflow 개발자 | 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다. |
데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 | |
---|---|---|---|
Cloud Storage 파일 | 스토리지 관리자 | 파일이 속한 프로젝트 | |
표준 BigQuery 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
표준 BigQuery 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
BigQuery 데이터 뷰어 | bigquery.tables.get 은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다. |
스토리지 객체 뷰어 | storage.objects.get 을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다. |
스토리지 객체 관리자 | storage.objects.get 및 storage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
스토리지 관리자 | storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다. |
Dataflow 작업자용 서비스 계정
파이프라인 프로젝트에서 Dataflow 작업자용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
스토리지 객체 관리자 | 이 역할로 서비스 계정을 통해 Cloud Storage 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 서비스 계정에 이 권한이 필요합니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계를 수행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
Dataflow 작업자 | 서비스 계정에는 이 역할로 부여되는 모든 권한이 필요합니다. |
데이터 소스 유형에 따라 Dataflow 작업자 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 |
---|---|---|
표준 BigQuery 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
표준 BigQuery 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | BigQuery 데이터 편집자 | 파이프라인을 실행하는 프로젝트 |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | |
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | |
Cloud Storage 파일 | BigQuery 데이터 뷰어 | 파이프라인을 실행하는 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
역할 | 권한 |
---|---|
BigQuery 데이터 뷰어 | bigquery.tables.get 은 파이프라인의 Feature Transform Engine 단계에서 데이터 세트에 대한 액세스 권한을 제공합니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
BigQuery 데이터 편집자 | 이 역할로 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계 중에 테이블을 쿼리하고 임시 테이블을 만들 수 있습니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
스토리지 객체 뷰어 | storage.objects.get 을 사용하면 서비스 계정을 통해 Cloud Storage 파일에 액세스할 수 있습니다. |
AI Platform 서비스 에이전트
파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 서비스 에이전트 |
이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.
|
ARIMA+의 서비스 계정
이 워크플로에서는 다음 서비스 계정을 사용합니다.
서비스 계정 | 설명 | 기본 주 구성원 | 기본 이름 | 재정의 가능 |
---|---|---|---|---|
Vertex AI Pipelines용 서비스 계정 | 파이프라인을 실행하는 서비스 계정 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
예 |
AI Platform 서비스 에이전트 | 학습 컨테이너를 실행하는 서비스 계정입니다. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
아니요 |
Vertex AI Pipelines 서비스 계정을 원하는 계정으로 변경할 수 있습니다. 자세한 내용은 ARIMA+를 사용한 예측을 참조하세요.
Vertex AI Pipelines용 서비스 계정
파이프라인 프로젝트의 Vertex AI Pipelines용 서비스 계정에 다음 역할을 부여해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 사용자 |
aiplatform.metadataStores.get 을 사용하면 서비스 계정을 통해 파이프라인 작업을 만들 수 있습니다. aiplatform.models.upload 를 사용하면 서비스 계정을 통해 모델을 업로드할 수 있습니다.
|
BigQuery 데이터 편집자 | bigquery.tables.create 를 사용하면 Dataflow 작업을 시작하기 전에 서비스 계정을 통해 Feature Transform Engine의 임시 테이블을 만들 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. 이 역할에는 BigQuery 데이터 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
BigQuery 작업 사용자 | bigquery.jobs.create 를 사용하면 Dataflow 작업을 실행하기 전에 서비스 계정을 통해 Feature Transform Engine의 BigQuery 작업을 실행할 수 있습니다. 데이터 소스가 BigQuery 데이터 세트가 아니더라도 서비스 계정에 이 권한이 필요합니다. |
서비스 계정 사용자 |
iam.serviceAccounts.actAs 를 사용하면 평가 중에 Vertex AI Pipelines 서비스 계정이 Dataflow 작업자 서비스 계정의 역할을 하도록 할 수 있습니다.
|
Dataflow 개발자 | 이 역할은 Dataflow 작업을 실행하는 데 필요한 리소스에 대해 액세스 권한을 제공합니다. |
데이터 소스 유형에 따라 Vertex AI Pipelines 서비스 계정에 다음 역할을 추가로 부여해야 합니다.
데이터 소스 | 역할 | 역할을 부여할 위치 | |
---|---|---|---|
Cloud Storage 파일 | 스토리지 관리자 | 파일이 속한 프로젝트 | |
표준 BigQuery 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
표준 BigQuery 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 테이블이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 | ||
소스 Cloud Storage 파일이 있는 BigQuery 외부 테이블의 BigQuery 뷰 | 스토리지 객체 관리자 | 파이프라인을 실행하는 프로젝트 | |
BigQuery 데이터 뷰어 | 뷰가 속한 프로젝트 | ||
BigQuery 데이터 뷰어 | 외부 테이블이 속한 프로젝트 | ||
스토리지 객체 뷰어 | 소스 파일이 속한 프로젝트 |
다음 표는 역할에 대한 설명을 제공합니다.
BigQuery 데이터 뷰어 | bigquery.tables.get 은 서비스 계정에 데이터 세트에 대한 액세스 권한을 제공합니다. 파이프라인의 Feature Transform Engine 단계에서 Dataflow 작업을 시작하기 전에 서비스 계정에 이 액세스 권한이 필요합니다. |
스토리지 객체 뷰어 | storage.objects.get 을 사용하면 서비스 계정을 통해 소스 Cloud Storage 파일에 액세스할 수 있습니다. |
스토리지 객체 관리자 | storage.objects.get 및 storage.objects.create 권한이 있으면 서비스 계정을 통해 파이프라인 작업의 루트 디렉터리가 있는 버킷에 액세스할 수 있습니다. 데이터 소스가 Cloud Storage 파일이 아니더라도 파이프라인 프로젝트에서는 서비스 계정에 이 권한이 필요합니다. 이 역할에는 스토리지 객체 뷰어 역할로 부여되는 모든 권한이 포함됩니다. |
스토리지 관리자 | storage.buckets.* 권한이 있으면 서비스 계정을 통해 파이프라인의 Feature Transform Engine 단계에서 Cloud Storage 버킷을 검증할 수 있습니다. 이 역할에는 스토리지 객체 관리자 역할로 부여되는 모든 권한이 포함됩니다. |
AI Platform 서비스 에이전트
파이프라인 프로젝트의 AI Platform 서비스 에이전트에 다음 역할이 부여되어 있는지 확인해야 합니다.
역할 | 권한 |
---|---|
Vertex AI 서비스 에이전트 |
이 역할은 서비스 에이전트에 대한 권한을 부여합니다. 권한에는 Artifact Registry 저장소의 컨테이너 이미지에 대한 storage.object.get 권한과 액세스 권한이 포함됩니다.
|