EnvironmentConfig

Configurazione dell'ambiente per un carico di lavoro.

Rappresentazione JSON
{
  "executionConfig": {
    object (ExecutionConfig)
  },
  "peripheralsConfig": {
    object (PeripheralsConfig)
  }
}
Campi
executionConfig

object (ExecutionConfig)

Facoltativo. Configurazione di esecuzione per un carico di lavoro.

peripheralsConfig

object (PeripheralsConfig)

Facoltativo. Configurazione delle periferiche a cui ha accesso il carico di lavoro.

ExecutionConfig

Configurazione di esecuzione per un carico di lavoro.

Rappresentazione JSON
{
  "serviceAccount": string,
  "networkTags": [
    string
  ],
  "kmsKey": string,
  "idleTtl": string,
  "ttl": string,
  "stagingBucket": string,

  // Union field network can be only one of the following:
  "networkUri": string,
  "subnetworkUri": string
  // End of list of possible types for union field network.
}
Campi
serviceAccount

string

Facoltativo. Account di servizio utilizzato per eseguire il carico di lavoro.

networkTags[]

string

Facoltativo. Tag utilizzati per il controllo del traffico di rete.

kmsKey

string

Facoltativo. La chiave Cloud KMS da utilizzare per la crittografia.

idleTtl

string (Duration format)

Facoltativo. Si applica solo alle sessioni. La durata per mantenere attiva la sessione in stato inattivo. Il superamento di questa soglia comporta l'interruzione della sessione. Questo campo non può essere impostato su un carico di lavoro batch. Il valore minimo è 10 minuti; il valore massimo è 14 giorni (vedi la rappresentazione JSON di Duration). Se non impostato, il valore predefinito è 1 ora. Se per una sessione interattiva sono specificati sia ttl sia idleTtl, le condizioni vengono trattate come condizioni OR: il carico di lavoro verrà terminato quando sarà inattivo per idleTtl o quando verrà superato ttl, a seconda del primo evento che si verifica.

ttl

string (Duration format)

Facoltativo. La durata dopo la quale il carico di lavoro verrà terminato, specificata come rappresentazione JSON per Duration. Quando il carico di lavoro supera questa durata, verrà interrotto incondizionatamente senza attendere il completamento del lavoro in corso. Se per un carico di lavoro batch non viene specificato ttl, il carico di lavoro potrà essere eseguito fino all'uscita naturale (o per sempre senza uscire). Se per una sessione interattiva non viene specificato ttl, il valore predefinito è 24 ore. Se ttl non è specificato per un batch che utilizza la versione runtime 2.1 o successive, il valore predefinito è 4 ore. Il valore minimo è 10 minuti; il valore massimo è 14 giorni. Se sono specificati sia ttl sia idleTtl (per una sessione interattiva), le condizioni vengono trattate come condizioni OR: il carico di lavoro verrà terminato quando sarà inattivo per idleTtl o quando verrà superato ttl, a seconda del caso che si verifica per primo.

stagingBucket

string

Facoltativo. Un bucket Cloud Storage utilizzato per eseguire lo staging delle dipendenze del carico di lavoro, dei file di configurazione e per archiviare l'output del carico di lavoro e altri dati effimeri, come i file di cronologia di Spark. Se non specifichi un bucket di staging, Cloud Dataproc determinerà una posizione Cloud Storage in base alla regione in cui viene eseguito il carico di lavoro, quindi creerà e gestirà bucket temporanei e di staging a livello di progetto e per località. Questo campo richiede il nome di un bucket Cloud Storage, non un URI gs://... a un bucket Cloud Storage.

Campo unione network. Configurazione di rete per l'esecuzione del carico di lavoro. network può essere solo uno dei seguenti:
networkUri

string

Facoltativo. URI della rete a cui connettere il carico di lavoro.

subnetworkUri

string

Facoltativo. URI della sottorete a cui collegare il carico di lavoro.

PeripheralsConfig

Configurazione dei servizi ausiliari per un carico di lavoro.

Rappresentazione JSON
{
  "metastoreService": string,
  "sparkHistoryServerConfig": {
    object (SparkHistoryServerConfig)
  }
}
Campi
metastoreService

string

Facoltativo. Nome della risorsa di un servizio Dataproc Metastore esistente.

Esempio:

  • projects/[projectId]/locations/[region]/services/[service_id]
sparkHistoryServerConfig

object (SparkHistoryServerConfig)

Facoltativo. La configurazione del server di cronologia Spark per il workload.

SparkHistoryServerConfig

Configurazione del server di cronologia Spark per il workload.

Rappresentazione JSON
{
  "dataprocCluster": string
}
Campi
dataprocCluster

string

Facoltativo. Nome della risorsa di un cluster Dataproc esistente da utilizzare come server di cronologia Spark per il workload.

Esempio:

  • projects/[projectId]/regions/[region]/clusters/[clusterName]