- Flusso di lavoro tabulare per AutoML end-to-end
- Flusso di lavoro tabulare per la previsione
- Workflow tabulare per TabNet
- Flusso di lavoro tabulare per Wide & Deep
- Prophet
- ARIMA+
Service account per il flusso di lavoro tabulare per AutoML end-to-end
Questo flusso di lavoro utilizza i seguenti service account:
Service account | Descrizione | Entità di servizio predefinita | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | Il account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Service account per il worker Dataflow | Il account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Puoi modificare alcuni service account con un account a tua scelta. Per istruzioni specifiche per la console Google Cloud o l'API, consulta Addestrare un modello con AutoML end-to-end.
Service account per Vertex AI Pipelines
Concedi i seguenti ruoli al account di servizio per Vertex AI Pipelines nel progetto pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI User |
aiplatform.metadataStores.get consente al account di servizio di creare un job della pipeline. aiplatform.models.upload consente al account di servizio di caricare il modello.
|
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create di Amministratore oggetti Storage consentono al account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. |
Dataflow Developer | dataflow.jobs.create consente al account di servizio di creare job Dataflow durante la valutazione. |
Utente service account |
iam.serviceAccounts.actAs consente al account di servizio di Vertex AI Pipelines di fungere da account di servizio worker Dataflow durante la valutazione.
|
Service account per il worker Dataflow
Concedi i seguenti ruoli al account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Dataflow Worker | Questo ruolo consente al account di servizio di accedere alle risorse necessarie per eseguire i job Dataflow. |
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio ha bisogno di queste autorizzazioni anche se non utilizzi un'origine dati Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Inoltre, concedi i seguenti ruoli al account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Utente job BigQuery | Progetto che esegue la pipeline | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Storage Object Viewer | Progetto a cui appartiene il file |
La seguente tabella spiega questi ruoli:
Ruolo | Autorizzazioni |
---|---|
Editor dati BigQuery | Le autorizzazioni bigquery.jobs.get e bigquery.jobs.create consentono all'account di servizio di utilizzare i set di dati BigQuery. bigquery.jobs.create consente al account di servizio di creare
set di dati BigQuery temporanei durante la generazione di statistiche ed esempi. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di utilizzare un set di dati BigQuery. |
Visualizzatore dati BigQuery | Questo ruolo fornisce all'account di servizio l'accesso al set di dati BigQuery. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere a un file Cloud Storage. |
AI Platform Service Agent
Assicurati che l'agente di servizio AI Platform nel progetto della pipeline abbia il seguente ruolo:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Se l'origine dati è un set di dati BigQuery di un altro progetto, concedi i seguenti ruoli all'agente di servizio AI Platform nel progetto del set di dati:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get consente all'account di servizio di ottenere informazioni sul set di dati BigQuery prima di avviare un job Dataflow. |
Se l'origine dati è un file Cloud Storage di un altro progetto, assegna i seguenti ruoli all'agente di servizio AI Platform nel progetto del file:
Storage Object Viewer | storage.objects.list consente al account di servizio di ottenere informazioni sul file Cloud Storage prima di avviare un job Dataflow. |
Service account per il flusso di lavoro tabulare per la previsione
Questo flusso di lavoro utilizza i seguenti service account:
Service account | Descrizione | Entità di servizio predefinita | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | Il account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Service account per il worker Dataflow | Il account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Puoi modificare alcuni service account con un account a tua scelta. Per scoprire di più, consulta Addestrare un modello con il flusso di lavoro tabulare per la previsione.
Service account per Vertex AI Pipelines
Concedi i seguenti ruoli al account di servizio per Vertex AI Pipelines nel progetto pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI User |
aiplatform.metadataStores.get consente al account di servizio di creare un job della pipeline. aiplatform.models.upload consente al account di servizio di caricare il modello.
|
Editor dati BigQuery | bigquery.tables.create consente al account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente service account |
iam.serviceAccounts.actAs consente al account di servizio di Vertex AI Pipelines di fungere da account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Inoltre, concedi i seguenti ruoli al account di servizio di Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La seguente tabella spiega questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. Il account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono al account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio necessita di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono al account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
Se esegui la valutazione del modello, fornisci un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, concedi i seguenti ruoli al account di servizio di Vertex AI Pipelines:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | Questo ruolo consente all'account di servizio di visualizzare i dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di creare job BigQuery. |
Service account per il worker Dataflow
Concedi i seguenti ruoli al account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio richiede queste autorizzazioni anche se l'origine dati non è un file Cloud Storage. |
Utente job BigQuery | bigquery.jobs.create consente al account di servizio di eseguire il passaggio Feature Transform Engine della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Dataflow Worker | Il account di servizio richiede tutte le autorizzazioni concesse da questo ruolo. |
Inoltre, concedi i seguenti ruoli al account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Visualizzatore dati BigQuery | Progetto che esegue la pipeline |
La seguente tabella spiega questi ruoli:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Editor dati BigQuery | Questo ruolo consente al account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere a un file Cloud Storage. |
AI Platform Service Agent
Assicurati che l'agente di servizio AI Platform nel progetto della pipeline abbia il seguente ruolo:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Se esegui la valutazione del modello, fornisci un set di dati BigQuery da utilizzare come destinazione per gli esempi previsti. Nel progetto che contiene questo set di dati, concedi i seguenti ruoli al account di servizio di Vertex AI Pipelines:
Ruolo | Autorizzazioni |
---|---|
Editor dati BigQuery | Questo ruolo consente al account di servizio di modificare i dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di creare job BigQuery. |
Service account per il workflow tabulare per TabNet, il workflow tabulare per Wide & Deep e Prophet
Questi flussi di lavoro utilizzano i seguenti service account:
Service account | Descrizione | Entità di servizio predefinita | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | Il account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
Service account per il worker Dataflow | Il account di servizio che esegue i worker Dataflow | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Puoi modificare alcuni service account con un account a tua scelta. Per le istruzioni del workflow tabulare per TabNet, vedi Addestrare un modello con TabNet. Per le istruzioni sul workflow tabulare per Wide & Deep, consulta Addestra un modello con Wide & Deep. Per le istruzioni di Prophet, vedi Previsioni con Prophet.
Service account per Vertex AI Pipelines
Concedi i seguenti ruoli al account di servizio per Vertex AI Pipelines nel progetto pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI User |
aiplatform.metadataStores.get consente al account di servizio di creare un job della pipeline. aiplatform.models.upload consente al account di servizio di caricare il modello.
|
Editor dati BigQuery | bigquery.tables.create consente al account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente service account |
iam.serviceAccounts.actAs consente al account di servizio di Vertex AI Pipelines di fungere da account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Inoltre, concedi i seguenti ruoli al account di servizio di Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La seguente tabella spiega questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. Il account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono al account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio necessita di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono al account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
Service account per il worker Dataflow
Concedi i seguenti ruoli al account di servizio per il worker Dataflow nel progetto della pipeline:
Ruolo | Autorizzazioni |
---|---|
Storage Object Admin | Questo ruolo consente al account di servizio di accedere ai bucket Cloud Storage. L'account di servizio richiede queste autorizzazioni anche se l'origine dati non è un file Cloud Storage. |
Utente job BigQuery | bigquery.jobs.create consente al account di servizio di eseguire il passaggio Feature Transform Engine della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Dataflow Worker | Il account di servizio richiede tutte le autorizzazioni concesse da questo ruolo. |
Inoltre, concedi i seguenti ruoli al account di servizio worker Dataflow in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
Tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Editor dati BigQuery | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
File Cloud Storage | Visualizzatore dati BigQuery | Progetto che esegue la pipeline |
La seguente tabella spiega questi ruoli:
Ruolo | Autorizzazioni |
---|---|
Visualizzatore dati BigQuery | bigquery.tables.get fornisce l'accesso al set di dati nel passaggio del motore di trasformazione delle funzionalità della pipeline. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Editor dati BigQuery | Questo ruolo consente al account di servizio di eseguire query sulla tabella e creare tabelle temporanee durante il passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere a un file Cloud Storage. |
AI Platform Service Agent
Assicurati che l'agente di servizio AI Platform nel progetto della pipeline abbia il seguente ruolo:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|
Service account per ARIMA+
Questo flusso di lavoro utilizza i seguenti service account:
Service account | Descrizione | Entità di servizio predefinita | Nome predefinito | Può essere ignorata |
---|---|---|---|---|
Account di servizio per Vertex AI Pipelines | Il account di servizio che esegue la pipeline | PROJECT_NUMBER-compute@developer.gserviceaccount.com |
Compute Engine default service account |
Sì |
AI Platform Service Agent | L'account di servizio che esegue i container di addestramento. | service-PROJECT_NUMBER@gcp-sa-aiplatform.iam.gserviceaccount.com |
AI Platform Service Agent |
No |
Puoi modificare il account di servizio di Vertex AI Pipelines con un account a tua scelta. Per ulteriori informazioni, consulta la sezione Previsione con ARIMA+.
Service account per Vertex AI Pipelines
Concedi i seguenti ruoli al account di servizio per Vertex AI Pipelines nel progetto pipeline:
Ruolo | Autorizzazioni |
---|---|
Vertex AI User |
aiplatform.metadataStores.get consente al account di servizio di creare un job della pipeline. aiplatform.models.upload consente al account di servizio di caricare il modello.
|
Editor dati BigQuery | bigquery.tables.create consente al account di servizio di creare tabelle temporanee per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore dati BigQuery. |
Utente job BigQuery | bigquery.jobs.create consente all'account di servizio di eseguire job BigQuery per Feature Transform Engine prima di avviare un job Dataflow. L'account di servizio richiede questa autorizzazione anche se l'origine dati non è un set di dati BigQuery. |
Utente service account |
iam.serviceAccounts.actAs consente al account di servizio di Vertex AI Pipelines di fungere da account di servizio worker Dataflow durante la valutazione.
|
Dataflow Developer | Questo ruolo fornisce l'accesso alle risorse necessarie per eseguire i job Dataflow. |
Inoltre, concedi i seguenti ruoli al account di servizio di Vertex AI Pipelines in base al tipo di origine dati:
Origine dati | Ruolo | Dove concedere il ruolo |
---|---|---|
File Cloud Storage | Amministratore Storage | Progetto a cui appartiene il file |
Tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Visualizzazione BigQuery di una tabella BigQuery standard | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella | |
Tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine | |
Vista BigQuery di una tabella esterna BigQuery con un file Cloud Storage di origine | Storage Object Admin | Progetto che esegue la pipeline |
Visualizzatore dati BigQuery | Progetto a cui appartiene la visualizzazione | |
Visualizzatore dati BigQuery | Progetto a cui appartiene la tabella esterna | |
Storage Object Viewer | Progetto a cui appartiene il file di origine |
La seguente tabella spiega questi ruoli:
Visualizzatore dati BigQuery | bigquery.tables.get fornisce all'account di servizio l'accesso al set di dati. Il account di servizio ha bisogno di questo accesso prima di avviare il job Dataflow nel passaggio Feature Transform Engine della pipeline. |
Storage Object Viewer | storage.objects.get consente al account di servizio di accedere al file Cloud Storage di origine. |
Storage Object Admin | Le autorizzazioni storage.objects.get e storage.objects.create consentono al account di servizio di accedere al bucket per la directory principale del job della pipeline. L'account di servizio necessita di queste autorizzazioni nel progetto della pipeline anche se l'origine dati non è un file Cloud Storage. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Visualizzatore oggetti Storage. |
Amministratore Storage | Le autorizzazioni storage.buckets.* consentono al account di servizio di convalidare il bucket Cloud Storage nel passaggio Feature Transform Engine della pipeline. Questo ruolo include tutte le autorizzazioni concesse dal ruolo Amministratore oggetti Storage. |
AI Platform Service Agent
Assicurati che l'agente di servizio AI Platform nel progetto della pipeline abbia il seguente ruolo:
Ruolo | Autorizzazioni |
---|---|
Vertex AI Service Agent |
Questo ruolo concede le autorizzazioni per gli agenti di servizio. Queste autorizzazioni includono l'autorizzazione storage.object.get e i diritti di accesso alle immagini container nel repository Artifact Registry.
|