Kuota Serverless untuk Apache Spark

Serverless untuk Apache Spark memiliki batas kuota API yang diberlakukan di tingkat project dan region. Kuota ini disetel ulang setiap enam puluh detik (satu menit).

Tabel berikut mencantumkan jenis kuota, batas kuota, dan metode Serverless for Apache Spark API per project spesifik dan default yang diberlakukan.

Jenis Kuota Batas Metode atau Deskripsi API
ClusterOperationRequestsPerMinutePerProjectPerRegion 200 CancelOperation (kuota pembatalan operasi batch sama dengan kuota pembatalan operasi cluster).
BatchOperationRequestsPerMinutePerProjectPerRegion 200 CreateBatch, DeleteBatch
SessionOperationRequestsPerMinutePerProjectPerRegion 200 CreateSession, DeleteSession, TerminateSession
DefaultRequestsPerMinutePerProjectPerRegion 7500 GetBatch, ListBatches, GetSession, ListSessions
ActiveOperationsPerProjectPerRegion 5000 Batas jumlah total operasi aktif serentak dari semua jenis dalam sebuah project di suatu region.

Kuota Google Cloud lainnya

Batch Serverless for Apache Spark menggunakan produk Google Cloud lain. Produk-produk ini memiliki kuota level project, yang mencakup kuota yang berlaku pada penggunaan Serverless untuk Apache Spark. Beberapa layanan diwajibkan menggunakan Serverless for Apache Spark, seperti Compute Engine dan Cloud Storage. Layanan lain, seperti BigQuery dan Bigtable, dapat digunakan dengan Serverless untuk Apache Spark secara opsional.

Layanan wajib

Layanan berikut, yang memberlakukan batas kuota, diperlukan untuk membuat batch Serverless for Apache Spark.

Compute Engine

Batch serverless untuk Apache Spark menggunakan kuota resource Compute Engine berikut:

Tingkat Compute Kuota
Standar CPUS
Premium N2_CPUS
Tingkat Disk Kuota
Standar DISKS_TOTAL_GB
Premium LOCAL_SSD_TOTAL_GB_PER_VM_FAMILY dengan Tipe VM N2
Akselerator GPU Kuota
L4 NVIDIA_L4_GPUS
A100 40GB NVIDIA_A100_GPUS
A100 80GB NVIDIA_A100_80GB_GPUS

Kuota Compute Engine dibagi menjadi dua, yaitu batas regional dan batas global. Batas ini berlaku untuk batch yang Anda buat. Misalnya, untuk menjalankan batch Spark dengan 4 core driver (spark.driver.cores=4) dan dua eksekutor dengan masing-masing 4 core (spark.executor.cores=4), Anda akan menggunakan 12 CPU virtual (4 * 3). Penggunaan batch ini akan dihitung terhadap batas kuota regional 24 CPU virtual.

Resource batch default

Saat Anda membuat batch dengan setelan default, resource Compute Engine berikut akan digunakan:

Item Resource yang digunakan
CPU virtual 12
Instance Mesin Virtual (VM) 3
Persistent disk 1200 GiB

Cloud Logging

Serverless untuk Apache Spark menyimpan output dan log batch di Cloud Logging. Kuota Cloud Logging berlaku untuk batch Serverless for Apache Spark Anda.

Layanan opsional

Layanan berikut, yang memiliki batas kuota, dapat digunakan secara opsional dengan batch Serverless untuk Apache Spark.

BigQuery

Saat membaca atau menulis data ke BigQuery, maka kuota BigQuery akan berlaku.

Bigtable

Saat membaca atau menulis data ke Bigtable, kuota Bigtable akan berlaku.

Mengidentifikasi workload dengan batasan kuota atau alamat IP

Anda dapat menggunakan kueri Cloud Logging berikut untuk mengidentifikasi workload Serverless for Apache Spark yang mencapai kuota Anda atau tidak dapat menskalakan karena kehabisan alamat IP.

Kueri kuota:

jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.recommendation.outputs.constraintsReached="SCALING_CAPPED_DUE_TO_LACK_OF_QUOTA"

Kueri kehabisan alamat IP:

jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.status.details =~".*Insufficient free IP addresses.*"