Dieses Dokument enthält Informationen zu Spark-Messwerten. Standardmäßig wird mit Serverless for Apache Spark die Erfassung von verfügbaren Spark-Messwerten aktiviert, sofern Sie nicht Eigenschaften für die Erfassung von Spark-Messwerten verwenden, um die Erfassung eines oder mehrerer Spark-Messwerte zu deaktivieren oder zu überschreiben.
Weitere Attribute, die Sie beim Senden einer Serverless for Apache Spark-Spark-Batcharbeitslast festlegen können, finden Sie unter Spark-Attribute.
Attribute für die Erfassung von Spark-Messwerten
Mit den in diesem Abschnitt aufgeführten Attributen können Sie die Erfassung eines oder mehrerer verfügbarer Spark-Messwerte deaktivieren oder überschreiben.
Attribut | Beschreibung |
---|---|
spark.dataproc.driver.metrics |
Hiermit können Sie Spark-Treibermesswerte deaktivieren oder überschreiben. |
spark.dataproc.executor.metrics |
Hiermit können Sie Spark-Executor-Messwerte deaktivieren oder überschreiben. |
spark.dataproc.system.metrics |
Damit können Sie Spark-Systemmesswerte deaktivieren. |
Beispiele für die gcloud CLI:
Erfassung von Spark-Treibermesswerten deaktivieren:
gcloud dataproc batches submit spark \ --properties spark.dataproc.driver.metrics="" \ --region=region \ other args ...
Überschreiben Sie die standardmäßige Erfassung von Treibermesswerten in Spark, um nur
BlockManager:disk.diskSpaceUsed_MB
- undDAGScheduler:stage.failedStages
-Messwerte zu erfassen:gcloud dataproc batches submit spark \ --properties=^~^spark.dataproc.driver.metrics="BlockManager:disk.diskSpaceUsed_MB,DAGScheduler:stage.failedStages" \ --region=region \ other args ...
Verfügbare Spark-Messwerte
Bei Serverless for Apache Spark werden die in diesem Abschnitt aufgeführten Spark-Messwerte erfasst, sofern Sie die Erfassung nicht mit Spark-Attributen für die Messwerterfassung deaktivieren oder überschreiben.
custom.googleapis.com/METRIC_EXPLORER_NAME
.
Spark-Treibermesswerte
Messwert | Name des Metrics Explorer |
---|---|
BlockManager:disk.diskSpaceUsed_MB | spark/driver/BlockManager/disk/diskSpaceUsed_MB |
BlockManager:memory.maxMem_MB | spark/driver/BlockManager/memory/maxMem_MB |
BlockManager:memory.memUsed_MB | spark/driver/BlockManager/memory/memUsed_MB |
DAGScheduler:job.activeJobs | spark/driver/DAGScheduler/job/activeJobs |
DAGScheduler:job.allJobs | spark/driver/DAGScheduler/job/allJobs |
DAGScheduler:messageProcessingTime | spark/driver/DAGScheduler/messageProcessingTime |
DAGScheduler:stage.failedStages | spark/driver/DAGScheduler/stage/failedStages |
DAGScheduler:stage.runningStages | spark/driver/DAGScheduler/stage/runningStages |
DAGScheduler:stage.waitingStages | spark/driver/DAGScheduler/stage/waitingStages |
Messwerte für Spark-Ausführer
Messwert | Name des Metrics Explorer |
---|---|
ExecutorAllocationManager:executors.numberExecutorsDecommissionUnfinished | spark/driver/ExecutorAllocationManager/executors/numberExecutorsDecommissionUnfinished |
ExecutorAllocationManager:executors.numberExecutorsExitedUnexpectedly | spark/driver/ExecutorAllocationManager/executors/numberExecutorsExitedUnexpectedly |
ExecutorAllocationManager:executors.numberExecutorsGracefullyDecommissioned | spark/driver/ExecutorAllocationManager/executors/numberExecutorsGracefullyDecommissioned |
ExecutorAllocationManager:executors.numberExecutorsKilledByDriver | spark/driver/ExecutorAllocationManager/executors/numberExecutorsKilledByDriver |
LiveListenerBus:queue.executorManagement.listenerProcessingTime | spark/driver/LiveListenerBus/queue/executorManagement/listenerProcessingTime |
executor:bytesRead | spark/executor/bytesRead |
executor:bytesWritten | spark/executor/bytesWritten |
executor:cpuTime | spark/executor/cpuTime |
executor:diskBytesSpilled | spark/executor/diskBytesSpilled |
executor:jvmGCTime | spark/executor/jvmGCTime |
executor:memoryBytesSpilled | spark/executor/memoryBytesSpilled |
executor:recordsRead | spark/executor/recordsRead |
executor:recordsWritten | spark/executor/recordsWritten |
executor:runTime | spark/executor/runTime |
executor:shuffleFetchWaitTime | spark/executor/shuffleFetchWaitTime |
executor:shuffleRecordsRead | spark/executor/shuffleRecordsRead |
executor:shuffleRecordsWritten | spark/executor/shuffleRecordsWritten |
executor:shuffleRemoteBytesReadToDisk | spark/executor/shuffleRemoteBytesReadToDisk |
executor:shuffleWriteTime | spark/executor/shuffleWriteTime |
executor:succeededTasks | spark/executor/succeededTasks |
ExecutorMetrics:MajorGCTime | spark/executor/ExecutorMetrics/MajorGCTime |
ExecutorMetrics:MinorGCTime | spark/executor/ExecutorMetrics/MinorGCTime |
Systemmesswerte
Messwert | Name des Metrics Explorer |
---|---|
agent:uptime | agent/uptime |
cpu:utilization | cpu/utilization |
disk:bytes_used | disk/bytes_used |
disk:percent_used | disk/percent_used |
memory:bytes_used | memory/bytes_used |
memory:percent_used | memory/percent_used |
network:tcp_connections | network/tcp_connections |
Spark-Messwerte ansehen
Wenn Sie Batchmesswerte ansehen möchten, klicken Sie in derGoogle Cloud -Konsole auf der Dataproc-Seite Batches auf eine Batch-ID, um die Seite Details für den Batch zu öffnen. Dort wird auf dem Tab „Monitoring“ ein Messwertdiagramm für die Batcharbeitslast angezeigt.

Weitere Informationen zum Ansehen der erfassten Messwerte finden Sie unter Cloud Monitoring für Dataproc.