- 端對端 AutoML 的資料欄工作流程
- 預測的資料表工作流程
- TabNet 適用的 Tabular Workflow
- 廣度和深度學習適用的 Tabular Workflow
- Prophet
- ARIMA+
端對端 AutoML 的資料表工作流程服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設管理者 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI 平台服務代理人 | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
部分服務帳戶可變更為您選擇的帳戶。如需 Google Cloud 控制台或 API 的具體操作說明,請參閱「使用端對端 AutoML 訓練模型」。
Vertex AI Pipelines 的服務帳戶
您必須向管道專案的 Vertex AI Pipelines 服務帳戶授予下列角色:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 可讓服務帳戶建立管道工作。aiplatform.models.upload 可讓服務帳戶上傳模型。 |
Storage 物件管理員 | Storage 物件管理員的 storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道工作根目錄的值區。即使您未使用 Cloud Storage 資料來源,服務帳戶仍需要這些權限。 |
Dataflow 開發人員 | dataflow.jobs.create 允許服務帳戶在評估期間建立 Dataflow 工作。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 可讓 Vertex AI Pipelines 服務帳戶在評估期間充當 Dataflow 工作站服務帳戶。 |
Dataflow 工作站的服務帳戶
您必須將下列角色授予管道專案中 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Dataflow 工作者 | 這個角色可讓服務帳戶存取執行 Dataflow 工作所需的資源。 |
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使您未使用 Cloud Storage 資料來源,服務帳戶也需要這些權限。這個角色包含「Storage Object Viewer」角色授予的所有權限。 |
您必須根據資料來源類型,額外將下列角色授予 Dataflow 工作者服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 工作使用者 | 執行管道的專案 | |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | Storage 物件檢視者 | 檔案所屬專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料編輯器 | bigquery.jobs.get 和 bigquery.jobs.create 權限可讓服務帳戶使用 BigQuery 資料集。bigquery.jobs.create 可讓服務帳戶在產生統計資料和範例時,建立暫時性 BigQuery 資料集。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶使用 BigQuery 資料集。 |
BigQuery 資料檢視器 | 這個角色會為服務帳戶提供 BigQuery 資料集的存取權。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請務必將下列角色授予管道專案中的 AI Platform 服務代理人:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務專員的權限。這些權限包括 storage.object.get 權限,以及對 Artifact Registry 存放區中容器映像檔的存取權。 |
如果資料來源是其他專案的 BigQuery 資料集,您必須將下列角色授予資料集專案中的 AI Platform Service Agent:
角色 | 權限 |
---|---|
BigQuery 資料檢視器 | bigquery.tables.get 可讓服務帳戶在啟動 Dataflow 工作之前,取得 BigQuery 資料集的相關資訊。 |
如果資料來源是其他專案的 Cloud Storage 檔案,您必須將下列角色授予檔案專案中的 AI Platform 服務代理:
Storage 物件檢視者 | storage.objects.list 可讓服務帳戶在啟動 Dataflow 工作前,取得 Cloud Storage 檔案的相關資訊。 |
預測用表格工作流程的服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設管理者 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI 平台服務代理人 | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
部分服務帳戶可變更為您選擇的帳戶。如要進一步瞭解,請參閱「使用預測用 Tabular Workflow 訓練模型」。
Vertex AI Pipelines 的服務帳戶
您必須向管道專案的 Vertex AI Pipelines 服務帳戶授予下列角色:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 可讓服務帳戶建立管道工作。aiplatform.models.upload 可讓服務帳戶上傳模型。 |
BigQuery 資料編輯器 | bigquery.tables.create 可讓服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 建立暫時性資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶在啟動資料流程工作前,為特徵轉換引擎執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 可讓 Vertex AI Pipelines 服務帳戶在評估期間充當 Dataflow 工作站服務帳戶。 |
Dataflow 開發人員 | 這個角色可提供執行 Dataflow 工作所需的資源存取權。 |
您必須根據資料來源類型,額外將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視器 | bigquery.tables.get 會為服務帳戶提供資料集存取權。服務帳戶必須具備這項存取權,才能在管道的「Feature Transform Engine」步驟中啟動 Dataflow 工作。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道作業的根目錄值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶仍需要在管道專案中具備這些權限。這個角色包含「Storage Object Viewer」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道中的「Feature Transform Engine」步驟中驗證 Cloud Storage 值區。這個角色包含「Storage Object Admin」角色授予的所有權限。 |
如果您要執行模型評估,必須提供 BigQuery 資料集,做為預測範例的目的地。在包含此資料集的專案中,您必須將下列角色授予 Vertex AI Pipelines 服務帳戶:
角色 | 權限 |
---|---|
BigQuery 資料檢視器 | 這個角色可讓服務帳戶查看 BigQuery 資料。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶建立 BigQuery 工作。 |
Dataflow 工作站的服務帳戶
您必須將下列角色授予管道專案中 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要這些權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶執行管道的 Feature Transform Engine 步驟。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
Dataflow 工作者 | 服務帳戶需要此角色授予的所有權限。 |
您必須根據資料來源類型,額外將下列角色授予 Dataflow 工作者服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | BigQuery 資料檢視器 | 執行管道的專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料檢視器 | bigquery.tables.get 會在管道的 Feature Transform Engine 步驟中提供資料集存取權。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
BigQuery 資料編輯器 | 這個角色可讓服務帳戶在管道中的「Feature Transform Engine」步驟中查詢資料表,並建立臨時資料表。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請務必將下列角色授予管道專案中的 AI Platform 服務代理人:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務專員的權限。這些權限包括 storage.object.get 權限,以及對 Artifact Registry 存放區中容器映像檔的存取權。 |
如果您要執行模型評估,必須提供 BigQuery 資料集,做為預測範例的目的地。在包含此資料集的專案中,您必須將下列角色授予 Vertex AI Pipelines 服務帳戶:
角色 | 權限 |
---|---|
BigQuery 資料編輯器 | 這個角色可讓服務帳戶編輯 BigQuery 資料。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶建立 BigQuery 工作。 |
TabNet 適用的 Tabular Workflow、廣度和深度學習適用的 Tabular Workflow 和 Prophet 的服務帳戶
這些工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設管理者 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
Dataflow 工作站的服務帳戶 | 執行 Dataflow 工作站的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI 平台服務代理人 | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
部分服務帳戶可變更為您選擇的帳戶。如需 TabNet 適用的 Tabular Workflow 操作說明,請參閱「使用 TabNet 訓練模型」。如需廣度和深度學習適用的 Tabular Workflow 操作說明,請參閱「使用廣度和深度學習訓練模型」。如需 Prophet 操作說明,請參閱「使用 Prophet 進行預測」。
Vertex AI Pipelines 的服務帳戶
您必須向管道專案的 Vertex AI Pipelines 服務帳戶授予下列角色:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 可讓服務帳戶建立管道工作。aiplatform.models.upload 可讓服務帳戶上傳模型。 |
BigQuery 資料編輯器 | bigquery.tables.create 可讓服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 建立暫時性資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶在啟動資料流程工作前,為特徵轉換引擎執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 可讓 Vertex AI Pipelines 服務帳戶在評估期間充當 Dataflow 工作站服務帳戶。 |
Dataflow 開發人員 | 這個角色可提供執行 Dataflow 工作所需的資源存取權。 |
您必須根據資料來源類型,額外將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視器 | bigquery.tables.get 會為服務帳戶提供資料集存取權。服務帳戶必須具備這項存取權,才能在管道的「Feature Transform Engine」步驟中啟動 Dataflow 工作。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道工作根目錄的值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶仍需要在管道專案中具備這些權限。這個角色包含「Storage Object Viewer」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道中的 Feature Transform Engine 步驟中驗證 Cloud Storage 值區。這個角色包含「Storage Object Admin」角色授予的所有權限。 |
Dataflow 工作站的服務帳戶
您必須將下列角色授予管道專案中 Dataflow 工作站的服務帳戶:
角色 | 權限 |
---|---|
Storage 物件管理員 | 這個角色可讓服務帳戶存取 Cloud Storage 值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶也需要這些權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶執行管道的 Feature Transform Engine 步驟。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
Dataflow 工作者 | 服務帳戶需要這個角色授予的所有權限。 |
您必須根據資料來源類型,額外將下列角色授予 Dataflow 工作者服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
標準 BigQuery 資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | BigQuery 資料編輯器 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
Cloud Storage 檔案 | BigQuery 資料檢視器 | 執行管道的專案 |
下表說明這些角色:
角色 | 權限 |
---|---|
BigQuery 資料檢視器 | bigquery.tables.get 會在管道的 Feature Transform Engine 步驟中提供資料集存取權。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
BigQuery 資料編輯器 | 這個角色可讓服務帳戶在管道中的「Feature Transform Engine」步驟中查詢資料表,並建立臨時資料表。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取 Cloud Storage 檔案。 |
AI 平台服務代理人
請務必將下列角色授予管道專案中的 AI Platform 服務代理人:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務專員的權限。這些權限包括 storage.object.get 權限,以及對 Artifact Registry 存放區中容器映像檔的存取權。 |
ARIMA+ 的服務帳戶
這個工作流程會使用下列服務帳戶:
服務帳戶 | 說明 | 預設管理者 | 預設名稱 | 可以覆寫 |
---|---|---|---|---|
Vertex AI Pipelines 的服務帳戶 | 執行管道的服務帳戶 | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
是 |
AI 平台服務代理人 | 執行訓練容器的服務帳戶。 | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
否 |
您可以將 Vertex AI Pipelines 服務帳戶變更為所選帳戶。詳情請參閱「使用 ARIMA+ 進行預測」。
Vertex AI Pipelines 的服務帳戶
您必須向管道專案的 Vertex AI Pipelines 服務帳戶授予下列角色:
角色 | 權限 |
---|---|
Vertex AI 使用者 |
aiplatform.metadataStores.get 可讓服務帳戶建立管道工作。aiplatform.models.upload 可讓服務帳戶上傳模型。 |
BigQuery 資料編輯器 | bigquery.tables.create 可讓服務帳戶在啟動 Dataflow 工作前,為 Feature Transform Engine 建立暫時性資料表。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。這個角色包含 BigQuery 資料檢視者角色授予的所有權限。 |
BigQuery 工作使用者 | bigquery.jobs.create 可讓服務帳戶在啟動資料流程工作前,為特徵轉換引擎執行 BigQuery 工作。即使資料來源不是 BigQuery 資料集,服務帳戶也需要這項權限。 |
服務帳戶使用者 |
iam.serviceAccounts.actAs 可讓 Vertex AI Pipelines 服務帳戶在評估期間充當 Dataflow 工作站服務帳戶。 |
Dataflow 開發人員 | 這個角色可提供執行 Dataflow 工作所需的資源存取權。 |
您必須根據資料來源類型,額外將下列角色授予 Vertex AI Pipelines 服務帳戶:
資料來源 | 角色 | 授予角色的位置 |
---|---|---|
Cloud Storage 檔案 | Storage 管理員 | 檔案所屬專案 |
標準 BigQuery 資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
標準 BigQuery 資料表的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 資料表所屬的專案 | |
含有來源 Cloud Storage 檔案的 BigQuery 外部資料表 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 | |
BigQuery 外部資料表 (含有來源 Cloud Storage 檔案) 的 BigQuery 檢視畫面 | Storage 物件管理員 | 執行管道的專案 |
BigQuery 資料檢視器 | 檢視畫面所屬的專案 | |
BigQuery 資料檢視器 | 外部資料表所屬的專案 | |
Storage 物件檢視者 | 來源檔案所屬的專案 |
下表說明這些角色:
BigQuery 資料檢視器 | bigquery.tables.get 會為服務帳戶提供資料集存取權。服務帳戶必須具備這項存取權,才能在管道的「Feature Transform Engine」步驟中啟動 Dataflow 工作。 |
Storage 物件檢視者 | storage.objects.get 可讓服務帳戶存取來源 Cloud Storage 檔案。 |
Storage 物件管理員 | storage.objects.get 和 storage.objects.create 權限可讓服務帳戶存取管道作業的根目錄值區。即使資料來源不是 Cloud Storage 檔案,服務帳戶仍需要在管道專案中具備這些權限。這個角色包含「Storage Object Viewer」角色授予的所有權限。 |
Storage 管理員 | storage.buckets.* 權限可讓服務帳戶在管道中的「Feature Transform Engine」步驟中驗證 Cloud Storage 值區。這個角色包含「Storage Object Admin」角色授予的所有權限。 |
AI 平台服務代理人
請務必將下列角色授予管道專案中的 AI Platform 服務代理人:
角色 | 權限 |
---|---|
Vertex AI 服務代理 |
這個角色會授予服務專員的權限。這些權限包括 storage.object.get 權限,以及對 Artifact Registry 存放區中容器映像檔的存取權。 |