資源:Batch
服務中的批次工作負載表示法。
JSON 表示法 |
---|
{ "name": string, "uuid": string, "createTime": string, "runtimeInfo": { object ( |
欄位 | |
---|---|
name |
僅供輸出。批次的資源名稱。 |
uuid |
僅供輸出。批次 UUID (通用專屬 ID)。服務會在建立批次時產生這個值。 |
create |
僅供輸出。建立批次的時間。 採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如: |
runtime |
僅供輸出。批次執行作業的執行階段資訊。 |
state |
僅供輸出。批次的狀態。 |
state |
僅供輸出。批次狀態詳細資料,例如狀態為 |
state |
僅供輸出。批次進入目前狀態的時間。 採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如: |
creator |
僅供輸出。建立批次的使用者電子郵件地址。 |
labels |
(非必要) 要與此批次相關聯的標籤。標籤鍵必須包含 1 至 63 個字元,且必須符合 RFC 1035 標準。標籤值可以為空白,但如果有值,則必須包含 1 到 63 個字元,且必須符合 RFC 1035。一個批次最多可關聯 32 個標籤。 包含 |
runtime |
(非必要) 批次執行作業的執行階段設定。 |
environment |
(非必要) 批次執行作業的環境設定。 |
operation |
僅供輸出。與此批次相關聯的作業資源名稱。 |
state |
僅供輸出。批次的歷史狀態資訊。 |
聯集欄位 batch_config 。批次設定的應用程式/架構專屬部分。batch_config 只能是下列其中一項: |
|
pyspark |
(非必要) PySpark 批次設定。 |
spark |
(非必要) Spark 批次設定。 |
spark |
(非必要) SparkR 批次設定。 |
spark |
(非必要) SparkSql 批次設定。 |
PySparkBatch
執行 Apache PySpark 批次工作負載的設定。
JSON 表示法 |
---|
{ "mainPythonFileUri": string, "args": [ string ], "pythonFileUris": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
欄位 | |
---|---|
main |
這是必要旗標,主要 Python 檔案的 HCFS URI,用於做為 Spark 驅動程式。必須是 .py 檔案。 |
args[] |
(非必要) 要傳遞至驅動程式的引數。請勿納入可設為批次屬性的引數,例如 |
python |
(非必要) 要傳遞至 PySpark 架構的 Python 檔案 HCFS 檔案 URI。支援的檔案類型: |
jar |
(非必要) 要新增至 Spark 驅動程式和工作群組的 JAR 檔案 HCFS URI。 |
file |
(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。 |
archive |
(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型: |
SparkBatch
用於執行 Apache Spark 批次工作負載的設定。
JSON 表示法 |
---|
{ "args": [ string ], "jarFileUris": [ string ], "fileUris": [ string ], "archiveUris": [ string ], // Union field |
欄位 | |
---|---|
args[] |
(非必要) 要傳遞至驅動程式的引數。請勿納入可設為批次屬性的引數,例如 |
jar |
(非必要) 要新增至 Spark 驅動程式和工作群組的 JAR 檔案 HCFS URI。 |
file |
(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。 |
archive |
(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型: |
聯集欄位 driver 。用於呼叫 Spark 工作負載的主要方法規格。指定包含主要類別的 jar 檔案或主要類別名稱。如要傳遞主要 jar 和該 jar 中的主類別,請將 jar 新增至 jar_file_uris ,然後在 main_class 中指定主類別名稱。driver 只能是下列其中一項: |
|
main |
(非必要) 包含主類別的 jar 檔案的 HCFS URI。 |
main |
(非必要) 驅動程式主類別的名稱。包含類別的 JAR 檔案必須位於 classpath 中,或在 |
SparkRBatch
用於執行 Apache SparkR 批次工作負載的設定。
JSON 表示法 |
---|
{ "mainRFileUri": string, "args": [ string ], "fileUris": [ string ], "archiveUris": [ string ] } |
欄位 | |
---|---|
main |
這是必要旗標,要用來做為驅動程式的主 R 檔案的 HCFS URI。必須是 |
args[] |
(非必要) 要傳遞至 Spark 驅動程式的引數。請勿納入可設為批次屬性的引數,例如 |
file |
(非必要) 要遷入各項執行程式工作目錄的檔案 HCFS URI。 |
archive |
(非必要) 要擷取至各執行程式工作目錄的封存檔 HCFS URI。支援的檔案類型: |
SparkSqlBatch
用於將 Apache Spark SQL 查詢當作批次工作負載執行的設定。
JSON 表示法 |
---|
{ "queryFileUri": string, "queryVariables": { string: string, ... }, "jarFileUris": [ string ] } |
欄位 | |
---|---|
query |
這是必要旗標,指令碼的 HCFS URI,其中包含要執行的 Spark SQL 查詢。 |
query |
(非必要) 將查詢變數名稱對應至值 (等同於 Spark SQL 指令: 包含 |
jar |
(非必要) 要新增至 Spark CLASSPATH 的 jar 檔案 HCFS URI。 |
狀態
批次狀態。
列舉 | |
---|---|
STATE_UNSPECIFIED |
批次狀態不明。 |
PENDING |
批次會在執行前建立。 |
RUNNING |
批次正在執行。 |
CANCELLING |
批次正在取消。 |
CANCELLED |
已成功取消批次。 |
SUCCEEDED |
批次已順利完成。 |
FAILED |
批次因發生錯誤而停止運作。 |
StateHistory
歷來狀態資訊。
JSON 表示法 |
---|
{
"state": enum ( |
欄位 | |
---|---|
state |
僅供輸出。批次在這個時間點的狀態。 |
state |
僅供輸出。歷史記錄中此時點的狀態詳細資料。 |
state |
僅供輸出。批次進入歷史狀態的時間。 採用 RFC3339 世界標準時間「Zulu」格式的時間戳記,精確度達奈秒單位,最多九個小數位數。例如: |
方法 |
|
---|---|
|
建立非同步執行的批次工作負載。 |
|
刪除批次工作負載資源。 |
|
取得批次工作負載資源表示法。 |
|
列出批次工作負載。 |