Serverless para Apache Spark tiene límites de cuota de la API que se aplican a nivel de proyecto y región. Esas cuotas se restablecen cada sesenta segundos (un minuto).
En la siguiente tabla, se muestran los tipos de cuotas específicos y predeterminados por proyecto para la API de Serverless for Apache Spark, los límites de cuotas y los métodos a los que se aplican.
Tipo de cuota | Límite | Métodos o descripción de la API |
---|---|---|
ClusterOperationRequestsPerMinutePerProjectPerRegion | 200 | CancelOperation (la cuota para cancelar operaciones por lotes se comparte con la cuota para cancelar operaciones de clúster). |
BatchOperationRequestsPerMinutePerProjectPerRegion | 200 | CreateBatch, DeleteBatch |
SessionOperationRequestsPerMinutePerProjectPerRegion | 200 | CreateSession, DeleteSession, TerminateSession |
DefaultRequestsPerMinutePerProjectPerRegion | 7,500 | GetBatch, ListBatches, GetSession, ListSessions |
ActiveOperationsPerProjectPerRegion | 5000 | Límite de la cantidad total de operaciones activas simultáneas de todos los tipos en un proyecto en una región. |
Otras Google Cloud cuotas
Los lotes de Serverless para Apache Spark utilizan otros productos de Google Cloud . Estos productos tienen cuotas a nivel del proyecto, que incluyen las que se aplican al uso de Serverless for Apache Spark. Algunos servicios son obligatorios para usar Serverless para Apache Spark, como Compute Engine y Cloud Storage. Otros servicios, como BigQuery y Bigtable, se pueden usar de forma opcional con Serverless for Apache Spark.
Servicios obligatorios
Los siguientes servicios, que tienen límites de cuota, son necesarios para crear lotes de Serverless para Apache Spark.
Compute Engine
Los lotes de Apache Spark sin servidores consumen las siguientes cuotas de recursos de Compute Engine:
Nivel de procesamiento | Cuota |
---|---|
Estándar | CPUS |
Premium | N2_CPUS |
Nivel de disco | Cuota |
Estándar | DISKS_TOTAL_GB |
Premium | LOCAL_SSD_TOTAL_GB_PER_VM_FAMILY con la familia de VMs N2 |
Acelerador de GPU | Cuota |
L4 | NVIDIA_L4_GPUS |
A100 40 GB | NVIDIA_A100_GPUS |
A100 80 GB | NVIDIA_A100_80GB_GPUS |
Las cuotas de Compute Engine están divididas en límites regionales y globales. Estos límites se aplican a los lotes que creas. Por ejemplo, para ejecutar un lote de Spark con 4 núcleos de controlador (spark.driver.cores=4
) y dos ejecutores con 4 núcleos cada uno (spark.executor.cores=4
), usarás 12 CPU virtuales (4 * 3
). El uso de este lote se descontará del límite de cuota regional de 24 CPU virtuales.
Recursos de lotes predeterminados
Cuando creas un lote con la configuración predeterminada, se usan los siguientes recursos de Compute Engine:
Elemento | Recursos utilizados |
---|---|
CPU virtuales | 12 |
Instancias de máquinas virtuales (VM) | 3 |
Disco persistente | 1,200 GiB |
Cloud Logging
Serverless for Apache Spark guarda los registros y los resultados por lotes en Cloud Logging. La cuota de Cloud Logging se aplica a tus lotes de Serverless for Apache Spark.
Servicios opcionales
Los siguientes servicios, que tienen límites de cuota, se pueden usar de forma opcional con los lotes de Serverless para Apache Spark.
BigQuery
Cuando se realizan operaciones de lectura o escritura de datos en BigQuery, se aplica la cuota de BigQuery.
Bigtable
Cuando se realizan operaciones de lectura o escritura de datos en Bigtable, se aplica la cuota de Bigtable.
Identifica las cargas de trabajo con limitaciones de cuota o de direcciones IP
Puedes usar las siguientes consultas de Cloud Logging para identificar las cargas de trabajo de Serverless for Apache Spark que alcanzaron tu cuota o no pudieron escalar debido al agotamiento de las direcciones IP.
Consulta de cuota:
jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.recommendation.outputs.constraintsReached="SCALING_CAPPED_DUE_TO_LACK_OF_QUOTA"
Consulta sobre el agotamiento de direcciones IP:
jsonPayload.@type="type.googleapis.com/google.cloud.dataproc.logging.AutoscalerLog"
jsonPayload.status.details =~".*Insufficient free IP addresses.*"