Recurso: Lote
Es una representación de una carga de trabajo por lotes en el servicio.
Representación JSON |
---|
{ "name": string, "uuid": string, "createTime": string, "runtimeInfo": { object ( |
Campos | |
---|---|
name |
Solo salida. Es el nombre del recurso del lote. |
uuid |
Solo salida. Un UUID por lotes (identificador único universal). El servicio genera este valor cuando crea el lote. |
create |
Solo salida. Es la hora en la que se creó el lote. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
runtime |
Solo salida. Información del entorno de ejecución sobre la ejecución por lotes |
state |
Solo salida. Es el estado del lote. |
state |
Solo salida. Detalles del estado del lote, como una descripción de la falla si el estado es |
state |
Solo salida. La hora en que el lote entró en un estado actual. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
creator |
Solo salida. La dirección de correo electrónico del usuario que creó el lote |
labels |
Opcional. Las etiquetas que se asociarán con este lote. Las claves de etiqueta deben contener entre 1 y 63 caracteres y cumplir con la RFC 1035. Los valores de la etiqueta pueden estar vacíos, pero, si están presentes, deben contener entre 1 y 63 caracteres y cumplir con la RFC 1035. No se pueden asociar más de 32 etiquetas a un lote. Un objeto que contiene una lista de pares |
runtime |
Opcional. Configuración del entorno de ejecución para la ejecución por lotes. |
environment |
Opcional. Configuración del entorno para la ejecución por lotes |
operation |
Solo salida. El nombre del recurso de la operación asociada con este lote. |
state |
Solo salida. Información histórica del estado del lote. |
Campo de unión batch_config . Es la parte específica de la aplicación o el framework de la configuración por lotes. batch_config puede ser solo uno de los siguientes: |
|
pyspark |
Opcional. Configuración por lotes de PySpark |
spark |
Opcional. Configuración por lotes de Spark |
spark |
Opcional. Configuración por lotes de SparkR |
spark |
Opcional. Configuración por lotes de SparkSql. |
PySparkBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache PySpark
Representación JSON |
---|
{ "mainPythonFileUri": string, "args": [ string ], "pythonFileUris": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
Campos | |
---|---|
main |
Obligatorio. Es el URI de HCFS del archivo principal de Python que se usará como controlador de Spark. Debe ser un archivo .py. |
args[] |
Opcional. Los argumentos que se pasarán al controlador. No incluyas argumentos que se puedan establecer como propiedades de lotes, como |
python |
Opcional. URIs de archivos HCFS de archivos de Python para pasar al framework de PySpark Tipos de archivos compatibles: |
jar |
Opcional. URIs de HCFS de archivos JAR para agregar a la ruta de acceso de clases del controlador y las tareas de Spark. |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
SparkBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache Spark
Representación JSON |
---|
{ "args": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ], // Union field |
Campos | |
---|---|
args[] |
Opcional. Los argumentos que se pasarán al controlador. No incluyas argumentos que se puedan establecer como propiedades de lote, como |
jar |
Opcional. URIs de HCFS de archivos JAR para agregarlos a la ruta de acceso de clases del controlador y las tareas de Spark. |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
Campo de unión driver . La especificación del método principal al que se debe llamar para dirigir la carga de trabajo de Spark. Especifica el archivo jar que contiene la clase principal o el nombre de la clase principal. Para pasar un jar principal y una clase principal en ese jar, agrega el jar a jar_file_uris y, luego, especifica el nombre de la clase principal en main_class . driver solo puede ser una de las siguientes opciones: |
|
main |
Opcional. El URI de HCFS del archivo JAR que contiene la clase principal. |
main |
Opcional. Es el nombre de la clase principal del controlador. El archivo jar que contiene la clase debe estar en el classpath o especificarse en |
SparkRBatch
Una configuración para ejecutar una carga de trabajo por lotes de Apache SparkR
Representación JSON |
---|
{ "mainRFileUri": string, "args": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
Campos | |
---|---|
main |
Obligatorio. Es el URI de HCFS del archivo R principal que se usará como controlador. Debe ser un archivo |
args[] |
Opcional. Los argumentos que se pasarán al controlador de Spark. No incluyas argumentos que se puedan establecer como propiedades de lote, como |
file |
Opcional. Los URIs de HCFS de los archivos que se colocarán en el directorio de trabajo de cada ejecutor. |
archive |
Opcional. Los URIs de HCFS de los archivos que se extraerán en el directorio de trabajo de cada ejecutor. Tipos de archivos compatibles: |
SparkSqlBatch
Es una configuración para ejecutar consultas de Apache Spark SQL como una carga de trabajo por lotes.
Representación JSON |
---|
{ "queryFileUri": string, "queryVariables": { string: string, ... }, "jarFileUris": [ string ] } |
Campos | |
---|---|
query |
Obligatorio. Es el URI de HCFS de la secuencia de comandos que contiene las consultas de Spark SQL que se ejecutarán. |
query |
Opcional. Asignación de nombres de variables de consulta a valores (equivalente al comando Spark SQL: Un objeto que contiene una lista de pares |
jar |
Opcional. URIs de HCFS de los archivos JAR que se agregarán al CLASSPATH de Spark. |
Estado
El estado del lote.
Enums | |
---|---|
STATE_UNSPECIFIED |
Se desconoce el estado del lote. |
PENDING |
El lote se crea antes de ejecutarse. |
RUNNING |
El lote se está ejecutando. |
CANCELLING |
Se cancela el lote. |
CANCELLED |
La cancelación masiva se realizó correctamente. |
SUCCEEDED |
El lote se completó correctamente. |
FAILED |
El lote ya no se ejecuta debido a un error. |
StateHistory
Información histórica del estado.
Representación JSON |
---|
{
"state": enum ( |
Campos | |
---|---|
state |
Solo salida. Es el estado del lote en este punto del historial. |
state |
Solo salida. Detalles sobre el estado en este momento de la historia. |
state |
Solo salida. Es la hora en la que el lote entró en el estado histórico. Una marca de tiempo en formato RFC3339 UTC “Zulú”, con una resolución de nanosegundos y hasta nueve dígitos fraccionarios. Ejemplos: |
Métodos |
|
---|---|
|
Crea una carga de trabajo por lotes que se ejecuta de forma asíncrona. |
|
Borra el recurso de carga de trabajo por lotes. |
|
Obtiene la representación del recurso de la carga de trabajo por lotes. |
|
Muestra una lista de cargas de trabajo por lotes. |