Cotas do Serverless para Apache Spark

O Serverless para Apache Spark tem limites de cota de API aplicados no nível do projeto e da região. As cotas são redefinidas a cada 60 segundos (um minuto).

A tabela a seguir indica os tipos específicos e padrão de cota da API Serverless para Apache Spark por projeto, além dos limites de cota e métodos em que se aplicam.

Tipo de cota Limite Métodos ou descrição da API
ClusterOperationRequestsPerMinutePerProjectPerRegion 200 CancelOperation (o cancelamento da cota de operação em lote é compartilhado com o cancelamento da cota de operação do cluster).
BatchOperationRequestsPerMinutePerProjectPerRegion 200 CreateBatch, DeleteBatch
SessionOperationRequestsPerMinutePerProjectPerRegion 200 CreateSession, DeleteSession, TerminateSession
DefaultRequestsPerMinutePerProjectPerRegion 7.500 GetBatch, ListBatches, GetSession, ListSessions
ActiveOperationsPerProjectPerRegion 5000 Limite no número total de operações ativas simultâneas de todos os tipos em um projeto em uma região.

Outras cotas do Google Cloud

Os lotes do Serverless para Apache Spark usam outros produtos do Google Cloud . Eles têm cotas de nível de projeto, o que inclui cotas relevantes ao uso do Serverless para Apache Spark. Alguns serviços são obrigatórios para usar o Serverless para Apache Spark, como o Compute Engine e o Cloud Storage. Outros serviços, como o BigQuery e o Bigtable, podem ser usados opcionalmente com o Serverless para Apache Spark.

Serviços obrigatórios

Os serviços a seguir, que impõem limites de cota, são necessários para criar lotes do Serverless para Apache Spark.

Compute Engine

Os jobs em lote do Serverless para Apache Spark consomem as seguintes cotas de recursos do Compute Engine:

Nível de computação Cota
Padrão CPUS
Premium N2_CPUS
Nível do disco Cota
Padrão DISKS_TOTAL_GB
Premium LOCAL_SSD_TOTAL_GB_PER_VM_FAMILY com a família de VMs N2
Acelerador de GPU Cota
L4 NVIDIA_L4_GPUS
A100 40 GB NVIDIA_A100_GPUS
A100 80 GB NVIDIA_A100_80GB_GPUS

As cotas do Compute Engine se dividem em limites regionais e globais. Esses limites se aplicam aos lotes que você cria. Por exemplo, para executar um lote do Spark com quatro núcleos de driver (spark.driver.cores=4) e dois executores com quatro núcleos cada (spark.executor.cores=4), você vai usar 12 CPUs virtuais (4 * 3). Esse uso do lote será contabilizado no limite de cota regional de 24 CPUs virtuais.

Recursos de lote padrão

Quando você cria um lote com configurações padrão, os seguintes recursos do Compute Engine são usados:

Item Recursos usados
CPUs virtuais 12
Instâncias de máquina virtual (VM) 3
Disco permanente 1200 GiB

Cloud Logging

O Serverless para Apache Spark salva a saída e os registros do lote no Cloud Logging. A cota do Cloud Logging se aplica aos seus lotes do Serverless para Apache Spark.

Serviços opcionais

Os serviços a seguir, que têm limites de cota, podem ser usados opcionalmente com lotes do Serverless para Apache Spark.

BigQuery

Durante a leitura ou gravação de dados no BigQuery, é usada a cota do BigQuery.

Bigtable

Durante a leitura ou gravação de dados no Bigtable, é usada a cota do Bigtable.

Identificar cargas de trabalho com limitações de cota ou endereço IP

Use as seguintes consultas do Cloud Logging para identificar cargas de trabalho do Serverless para Apache Spark que atingiram sua cota ou não puderam ser escalonadas devido ao esgotamento de endereços IP.

Consulta de cota:

jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.recommendation.outputs.constraintsReached="SCALING_CAPPED_DUE_TO_LACK_OF_QUOTA"

Consulta de esgotamento de endereços IP:

jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.status.details =~".*Insufficient free IP addresses.*"