EnvironmentConfig

Configuración del entorno para una carga de trabajo.

Representación JSON
{
  "executionConfig": {
    object (ExecutionConfig)
  },
  "peripheralsConfig": {
    object (PeripheralsConfig)
  }
}
Campos
executionConfig

object (ExecutionConfig)

Opcional. Configuración de ejecución para una carga de trabajo.

peripheralsConfig

object (PeripheralsConfig)

Opcional. Configuración de los periféricos a los que tiene acceso la carga de trabajo

ExecutionConfig

Configuración de ejecución para una carga de trabajo.

Representación JSON
{
  "serviceAccount": string,
  "networkTags": [
    string
  ],
  "kmsKey": string,
  "idleTtl": string,
  "ttl": string,
  "stagingBucket": string,

  // Union field network can be only one of the following:
  "networkUri": string,
  "subnetworkUri": string
  // End of list of possible types for union field network.
}
Campos
serviceAccount

string

Opcional. Cuenta de servicio que se usaba para ejecutar la carga de trabajo

networkTags[]

string

Opcional. Son etiquetas que se usan para controlar el tráfico de red.

kmsKey

string

Opcional. La clave de Cloud KMS que se usará para la encriptación.

idleTtl

string (Duration format)

Opcional. Solo se aplica a las sesiones. Es la duración para mantener la sesión activa mientras está inactiva. Si se supera este umbral, se finalizará la sesión. Este campo no se puede establecer en una carga de trabajo por lotes. El valor mínimo es de 10 minutos y el máximo es de 14 días (consulta la representación JSON de Duración). Si la opción no está configurada, se establece en 1 hora de forma predeterminada. Si se especifican ttl y idleTtl para una sesión interactiva, las condiciones se tratan como condiciones OR: la carga de trabajo se finalizará cuando esté inactiva durante idleTtl o cuando se supere ttl, lo que ocurra primero.

ttl

string (Duration format)

Opcional. Es la duración después de la cual se finalizará la carga de trabajo, especificada como la representación JSON de Duration. Cuando la carga de trabajo supere esta duración, se finalizará sin condiciones sin esperar a que finalice el trabajo en curso. Si no se especifica ttl para una carga de trabajo por lotes, esta se podrá ejecutar hasta que se cierre de forma natural (o se ejecute para siempre sin cerrarse). Si no se especifica ttl para una sesión interactiva, el valor predeterminado es de 24 horas. Si no se especifica ttl para un lote que usa una versión del entorno de ejecución posterior a la 2.1, el valor predeterminado es de 4 horas. El valor mínimo es de 10 minutos y el máximo es de 14 días. Si se especifican ttl y idleTtl (para una sesión interactiva), las condiciones se tratan como condiciones OR: la carga de trabajo se finalizará cuando esté inactiva durante idleTtl o cuando se supere ttl, lo que ocurra primero.

stagingBucket

string

Opcional. Es un bucket de Cloud Storage que se usa para almacenar en etapa intermedia las dependencias de cargas de trabajo, los archivos de configuración y los resultados de las cargas de trabajo, así como otros datos efímeros, como los archivos de historial de Spark. Si no especificas un bucket de etapa de pruebas, Cloud Dataproc determinará una ubicación de Cloud Storage según la región en la que se ejecuta tu carga de trabajo y, luego, creará y administrará buckets temporales y de etapa de pruebas por ubicación y a nivel del proyecto. Este campo requiere un nombre de bucket de Cloud Storage, no un URI gs://... a un bucket de Cloud Storage.

Campo de unión network. Configuración de red para la ejecución de cargas de trabajo network puede ser solo uno de los siguientes:
networkUri

string

Opcional. Es el URI de red al que se conectará la carga de trabajo.

subnetworkUri

string

Opcional. Es el URI de la subred al que se conectará la carga de trabajo.

PeripheralsConfig

Configuración de servicios auxiliares para una carga de trabajo.

Representación JSON
{
  "metastoreService": string,
  "sparkHistoryServerConfig": {
    object (SparkHistoryServerConfig)
  }
}
Campos
metastoreService

string

Opcional. Es el nombre del recurso de un servicio de Dataproc Metastore existente.

Ejemplo:

  • projects/[projectId]/locations/[region]/services/[service_id]
sparkHistoryServerConfig

object (SparkHistoryServerConfig)

Opcional. La configuración del servidor de historial de Spark para la carga de trabajo

SparkHistoryServerConfig

Configuración del servidor de historial de Spark para la carga de trabajo

Representación JSON
{
  "dataprocCluster": string
}
Campos
dataprocCluster

string

Opcional. Es el nombre de recurso de un clúster de Dataproc existente que actuará como servidor de historial de Spark para la carga de trabajo.

Ejemplo:

  • projects/[projectId]/regions/[region]/clusters/[clusterName]