Serverless for Apache Spark 會強制實行下列專案與地區層級 API 配額限制,這個配額每六十秒 (每分鐘) 會重設一次。
下表以專案為單位列出特定和預設的 Serverless for Apache Spark API 配額類型、配額限制,以及這些類型和限制適用的方法。
配額類型 | 限制 | API 方法或說明 |
---|---|---|
ClusterOperationRequestsPerMinutePerProjectPerRegion | 200 | CancelOperation (取消批次作業配額與取消叢集作業配額共用)。 |
BatchOperationRequestsPerMinutePerProjectPerRegion | 200 | CreateBatch、DeleteBatch |
SessionOperationRequestsPerMinutePerProjectPerRegion | 200 | CreateSession、DeleteSession、TerminateSession |
DefaultRequestsPerMinutePerProjectPerRegion | 7500 | GetBatch、ListBatches、GetSession、ListSessions |
ActiveOperationsPerProjectPerRegion | 5000 | 區域中專案的所有類型並行有效作業總數上限。 |
其他 Google Cloud 配額
Serverless for Apache Spark 批次作業會運用其他 Google Cloud 產品,這些產品都有專案層級配額,其中也包括適用於 Serverless for Apache Spark 用量的配額。使用 Apache Spark 無伺服器服務時,您必須搭配使用某些服務,例如 Compute Engine 和 Cloud Storage,但您可以自行選擇是否要將 BigQuery 和 Bigtable 等其他服務與 Serverless for Apache Spark 搭配使用。
必要服務
建立 Serverless for Apache Spark 批次時,必須啟用下列服務,這些服務有一定的配額限制。
Compute Engine
Apache Spark 無伺服器批次會耗用下列 Compute Engine 資源配額:
運算層級 | 配額 |
---|---|
標準 | CPUS |
進階 | N2_CPUS |
磁碟層級 | 配額 |
標準 | DISKS_TOTAL_GB |
進階 | LOCAL_SSD_TOTAL_GB_PER_VM_FAMILY 搭配 N2 VM 系列 |
GPU 加速器 | 配額 |
L4 | NVIDIA_L4_GPUS |
A100 40GB | NVIDIA_A100_GPUS |
A100 80GB | NVIDIA_A100_80GB_GPUS |
Compute Engine 配額分為地區性和全球性配額,且配額限制會套用至您建立的批次。舉例來說,如要執行 Spark 批次作業,並使用 4 個驅動程式核心 (spark.driver.cores=4
) 和兩個各含 4 個核心的執行器 (spark.executor.cores=4
),您必須用到 12 個虛擬 CPU (4 * 3
)。這個批次作業使用的配額會計入 24 個虛擬 CPU 的地區性配額限制。
預設批次資源
以預設設定建立批次時,會使用到下列 Compute Engine 資源:
項目 | 使用的資源 |
---|---|
虛擬 CPU 數量 | 12 |
虛擬機器 (VM) 執行個體數量 | 3 |
永久磁碟 | 1200 GiB |
Cloud Logging
Serverless for Apache Spark 會將批次輸出內容和記錄檔儲存在 Cloud Logging 中。因此 Cloud Logging 配額適用於您的 Serverless for Apache Spark 批次。
選用服務
下列服務有配額限制,您可以自行選擇是否要將這些服務和 Serverless for Apache Spark 批次搭配使用。
BigQuery
讀取 BigQuery 資料或將資料寫入 BigQuery 時,您會受到 BigQuery 配額的限制。
Bigtable
讀取 Bigtable 資料或將資料寫入 Bigtable 時,會有 Bigtable 配額的限制。