Panoramica di Dataproc su GKE

Dataproc su GKE ti consente di eseguire applicazioni di big data utilizzando l'API Dataproc jobs sui cluster GKE. Utilizza la console Google Cloud, Google Cloud CLI o l'API Dataproc (richiesta HTTP o librerie client di Cloud) per creare un cluster virtuale Dataproc su GKE, quindi invia un job Spark, PySpark, SparkR o Spark-SQL al servizio Dataproc.

Dataproc su GKE supporta le versioni di Spark 3.5.

Come funziona Dataproc su GKE

Dataproc su GKE esegue il deployment di cluster virtuali Dataproc su in un cluster GKE. A differenza dei cluster Dataproc su Compute Engine, i cluster virtuali Dataproc su GKE non includono VM master e worker separate. Quando crei un cluster virtuale Dataproc su GKE, Dataproc su GKE crea pool di nodi all'interno di un cluster GKE. Dataproc su GKE i job vengono eseguiti come pod su questi pool di nodi. I pool di nodi e la programmazione dei pod nei pool di nodi sono gestiti da GKE.