Metriche Spark

Questo documento fornisce informazioni sulle metriche di Spark. Per impostazione predefinita, Dataproc Serverless attiva la raccolta delle metriche Spark disponibili, a meno che non utilizzi le proprietà di raccolta delle metriche Spark per disattivare o sostituire la raccolta di una o più metriche Spark.

Per altre proprietà che puoi impostare quando invii un carico di lavoro batch di Spark Dataproc Serverless, consulta Proprietà Spark

Proprietà della raccolta di metriche Spark

Puoi utilizzare le proprietà elencate in questa sezione per disattivare o sostituire la raccolta di una o più metriche Spark disponibili.

Proprietà Descrizione
spark.dataproc.driver.metrics Da utilizzare per disattivare o sostituire le metriche del driver Spark.
spark.dataproc.executor.metrics Da utilizzare per disattivare o sostituire le metriche dell'executor Spark.
spark.dataproc.system.metrics Da utilizzare per disattivare le metriche di sistema di Spark.

Esempi dell'interfaccia a riga della gcloud CLI:

  • Disattiva la raccolta delle metriche del driver Spark:

    gcloud dataproc batches submit spark \
        --properties spark.dataproc.driver.metrics="" \
        --region=region \
        other args ...
    
  • Sostituisci la raccolta delle metriche del driver predefinito di Spark per raccogliere solo le metriche BlockManager:disk.diskSpaceUsed_MB e DAGScheduler:stage.failedStages:

    gcloud dataproc batches submit spark \
        --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \
        --region=region \
        other args ...
    

Metriche Spark disponibili

Dataproc Serverless raccoglie le metriche Spark elencate in questa sezione se non utilizzi proprietà di raccolta delle metriche Spark per disattivare o sostituire la loro raccolta.

custom.googleapis.com/METRIC_EXPLORER_NAME.

Metriche del driver Spark

Metrica Nome di Metrics Explorer
BlockManager:disk.diskSpaceUsed_MB spark/driver/BlockManager/disk/diskSpaceUsed_MB
BlockManager:memory.maxMem_MB spark/driver/BlockManager/memory/maxMem_MB
BlockManager:memory.memUsed_MB spark/driver/BlockManager/memory/memUsed_MB
DAGScheduler:job.activeJobs spark/driver/DAGScheduler/job/activeJobs
DAGScheduler:job.allJobs spark/driver/DAGScheduler/job/allJobs
DAGScheduler:messageProcessingTime spark/driver/DAGScheduler/messageProcessingTime
DAGScheduler:stage.failedStages spark/driver/DAGScheduler/stage/failedStages
DAGScheduler:stage.runningStages spark/driver/DAGScheduler/stage/runningStages
DAGScheduler:stage.waitingStages spark/driver/DAGScheduler/stage/waitingStages

Metriche dell'eseguitore Spark

Metrica Nome di Metrics Explorer
ExecutorAllocationManager:executors.numberExecutorsDecommissionUnfinished spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished
ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly
ExecutorAllocationManager:executors.numberExecutorsGracefullyDecommissioned spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned
ExecutorAllocationManager:executors.numberExecutorsKilledByDriver spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver
LiveListenerBus:queue.executorManagement.listenerProcessingTime spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime
executor:bytesRead spark/executor/bytesRead
executor:bytesWritten spark/executor/bytesWritten
executor:cpuTime spark/executor/cpuTime
executor:diskBytesSpilled spark/executor/diskBytesSpilled
executor:jvmGCTime spark/executor/jvmGCTime
executor:memoryBytesSpilled spark/executor/memoryBytesSpilled
executor:recordsRead spark/executor/recordsRead
executor:recordsWritten spark/executor/recordsWritten
executor:runTime spark/executor/runTime
executor:shuffleFetchWaitTime spark/executor/shuffleFetchWaitTime
executor:shuffleRecordsRead spark/executor/shuffleRecordsRead
executor:shuffleRecordsWritten spark/executor/shuffleRecordsWritten
executor:shuffleRemoteBytesReadToDisk spark/executor/shuffleRemoteBytesReadToDisk
executor:shuffleWriteTime spark/executor/shuffleWriteTime
executor:succeededTasks spark/executor/succeededTasks
ExecutorMetrics:MajorGCTime spark/executor/ExecutorMetrics/MajorGCTime
ExecutorMetrics:MinorGCTime spark/executor/ExecutorMetrics/MinorGCTime

Metriche di sistema

Metrica Nome dell'esploratore delle metriche
agent:uptime agent/uptime
cpu:utilization cpu/utilization
disk:bytes_used disk/bytes_used
disk:percent_used disk/percent_used
memory:bytes_used memory/bytes_used
memory:percent_used memory/percent_used
network:tcp_connections network/tcp_connections

Visualizzare le metriche di Spark

Per visualizzare le metriche dei batch, fai clic su un ID batch nella pagina Dataproc Batch della console Google Cloud per aprire la pagina Dettagli del batch, che mostra un grafico delle metriche per il carico di lavoro batch nella scheda Monitoraggio.

Figura 1. Grafico delle metriche di Spark per un carico di lavoro batch.

Consulta Cloud Monitoring di Dataproc per ulteriori informazioni su come visualizzare le metriche raccolte.