REST Resource: projects.locations.batches

資源:Batch

服務中的批次工作負載表示法。

JSON 表示法
{
  "name": string,
  "uuid": string,
  "createTime": string,
  "runtimeInfo": {
    object (RuntimeInfo)
  },
  "state": enum (State),
  "stateMessage": string,
  "stateTime": string,
  "creator": string,
  "labels": {
    string: string,
    ...
  },
  "runtimeConfig": {
    object (RuntimeConfig)
  },
  "environmentConfig": {
    object (EnvironmentConfig)
  },
  "operation": string,
  "stateHistory": [
    {
      object (StateHistory)
    }
  ],

  // Union field batch_config can be only one of the following:
  "pysparkBatch": {
    object (PySparkBatch)
  },
  "sparkBatch": {
    object (SparkBatch)
  },
  "sparkRBatch": {
    object (SparkRBatch)
  },
  "sparkSqlBatch": {
    object (SparkSqlBatch)
  }
  // End of list of possible types for union field batch_config.
}
欄位
name

string

僅供輸出。批次的資源名稱。

uuid

string

僅供輸出。批次 UUID (通用專屬 ID)。服務會在建立批次時產生這個值。

createTime

string (Timestamp format)

僅供輸出。建立批次的時間。

採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如:"2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z"

runtimeInfo

object (RuntimeInfo)

僅供輸出。批次執行作業的執行階段資訊。

state

enum (State)

僅供輸出。批次的狀態。

stateMessage

string

僅供輸出。批次狀態詳細資料,例如狀態為 FAILED 時的失敗說明。

stateTime

string (Timestamp format)

僅供輸出。批次進入目前狀態的時間。

採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如:"2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z"

creator

string

僅供輸出。建立批次的使用者電子郵件地址。

labels

map (key: string, value: string)

(非必要) 要與此批次相關聯的標籤。標籤必須包含 1 至 63 個字元,且必須符合 RFC 1035 標準。標籤可以為空白,但如果有值,則必須包含 1 到 63 個字元,且必須符合 RFC 1035。一個批次最多可關聯 32 個標籤。

包含 "key": value 組合清單的物件。範例:{ "name": "wrench", "mass": "1.3kg", "count": "3" }

runtimeConfig

object (RuntimeConfig)

(非必要) 批次執行作業的執行階段設定。

environmentConfig

object (EnvironmentConfig)

(非必要) 批次執行作業的環境設定。

operation

string

僅供輸出。與此批次相關聯的作業資源名稱。

stateHistory[]

object (StateHistory)

僅供輸出。批次的歷史狀態資訊。

聯集欄位 batch_config。批次設定的應用程式/架構專屬部分。batch_config 只能是下列其中一項:
pysparkBatch

object (PySparkBatch)

(非必要) PySpark 批次設定。

sparkBatch

object (SparkBatch)

(非必要) Spark 批次設定。

sparkRBatch

object (SparkRBatch)

(非必要) SparkR 批次設定。

sparkSqlBatch

object (SparkSqlBatch)

(非必要) SparkSql 批次設定。

PySparkBatch

執行 Apache PySpark 批次工作負載的設定。

JSON 表示法
{
  "mainPythonFileUri": string,
  "args": [
    string
  ],
  "pythonFileUris": [
    string
  ],
  "jarFileUris": [
    string
  ],
  "fileUris": [
    string
  ],
  "archiveUris": [
    string
  ]
}
欄位
mainPythonFileUri

string

這是必要旗標,主要 Python 檔案的 HCFS URI,用於做為 Spark 驅動程式。必須是 .py 檔案。

args[]

string

(非必要) 要傳遞至驅動程式的引數。請勿納入可設為批次屬性的引數,例如 --conf,因為這可能會發生衝突,導致提交的批次不正確。

pythonFileUris[]

string

(非必要) 要傳遞至 PySpark 架構的 Python 檔案 HCFS 檔案 URI。支援的檔案類型:.py.egg.zip

jarFileUris[]

string

(非必要) 要新增至 Spark 驅動程式和工作群組的 JAR 檔案 HCFS URI。

fileUris[]

string

(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。

archiveUris[]

string

(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型:.jar.tar.tar.gz.tgz.zip

SparkBatch

用於執行 Apache Spark 批次工作負載的設定。

JSON 表示法
{
  "args": [
    string
  ],
  "jarFileUris": [
    string
  ],
  "fileUris": [
    string
  ],
  "archiveUris": [
    string
  ],

  // Union field driver can be only one of the following:
  "mainJarFileUri": string,
  "mainClass": string
  // End of list of possible types for union field driver.
}
欄位
args[]

string

(非必要) 要傳遞至驅動程式的引數。請勿納入可設為批次屬性的引數,例如 --conf,因為這可能會發生衝突,導致提交的批次不正確。

jarFileUris[]

string

(非必要) 要新增至 Spark 驅動程式和工作群組的 JAR 檔案 HCFS URI。

fileUris[]

string

(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。

archiveUris[]

string

(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型:.jar.tar.tar.gz.tgz.zip

聯集欄位 driver。用於呼叫 Spark 工作負載的主要方法規格。指定包含主要類別的 jar 檔案或主要類別名稱。如要傳遞主要 jar 和該 jar 中的主類別,請將 jar 新增至 jar_file_uris,然後在 main_class 中指定主類別名稱。driver 只能是下列其中一項:
mainJarFileUri

string

(非必要) 包含主類別的 jar 檔案的 HCFS URI。

mainClass

string

(非必要) 驅動程式主類別的名稱。包含類別的 JAR 檔案必須位於 classpath 中,或在 jarFileUris 中指定。

SparkRBatch

用於執行 Apache SparkR 批次工作負載的設定。

JSON 表示法
{
  "mainRFileUri": string,
  "args": [
    string
  ],
  "fileUris": [
    string
  ],
  "archiveUris": [
    string
  ]
}
欄位
mainRFileUri

string

這是必要旗標,要用來做為驅動程式的主 R 檔案的 HCFS URI。必須是 .R.r 檔案。

args[]

string

(非必要) 要傳遞至 Spark 驅動程式的引數。請勿納入可設為批次屬性的引數,例如 --conf,因為這可能會發生衝突,導致提交的批次不正確。

fileUris[]

string

(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。

archiveUris[]

string

(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型:.jar.tar.tar.gz.tgz.zip

SparkSqlBatch

用於將 Apache Spark SQL 查詢當作批次工作負載執行的設定。

JSON 表示法
{
  "queryFileUri": string,
  "queryVariables": {
    string: string,
    ...
  },
  "jarFileUris": [
    string
  ]
}
欄位
queryFileUri

string

這是必要旗標,指令碼的 HCFS URI,其中包含要執行的 Spark SQL 查詢。

queryVariables

map (key: string, value: string)

(非必要) 將查詢變數名稱對應至值 (等同於 Spark SQL 指令:SET name="value";)。

包含 "key": value 組合清單的物件。範例:{ "name": "wrench", "mass": "1.3kg", "count": "3" }

jarFileUris[]

string

(非必要) 要新增至 Spark CLASSPATH 的 jar 檔案 HCFS URI。

狀態

批次狀態。

列舉
STATE_UNSPECIFIED 批次狀態不明。
PENDING 批次會在執行前建立。
RUNNING 批次正在執行。
CANCELLING 批次正在取消。
CANCELLED 已成功取消批次。
SUCCEEDED 批次已順利完成。
FAILED 批次因發生錯誤而停止運作。

StateHistory

歷來狀態資訊。

JSON 表示法
{
  "state": enum (State),
  "stateMessage": string,
  "stateStartTime": string
}
欄位
state

enum (State)

僅供輸出。批次在這個時間點的狀態。

stateMessage

string

僅供輸出。歷史記錄中此時點的狀態詳細資料。

stateStartTime

string (Timestamp format)

僅供輸出。批次進入歷史狀態的時間。

採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如:"2014-10-02T15:01:23Z""2014-10-02T15:01:23.045123456Z"

方法

create

建立非同步執行的批次工作負載。

delete

刪除批次工作負載資源。

get

取得批次工作負載資源表示法。

list

列出批次工作負載。