Dataproc su GKE ti consente di eseguire applicazioni di big data utilizzando l'API Dataproc jobs
sui cluster GKE.
Utilizza la console Google Cloud, lGoogle Cloud CLI o l'API Dataproc
(richiesta HTTP o librerie client Cloud) per
creare un cluster virtuale Dataproc su GKE,
quindi invia un job Spark, PySpark, SparkR o Spark-SQL al servizio Dataproc.
Dataproc su GKE supporta le versioni di Spark 3.5.
Come funziona Dataproc su GKE
Dataproc on GKE esegue il deployment di cluster virtuali Dataproc su un cluster GKE. A differenza dei cluster Dataproc su Compute Engine, i cluster virtuali Dataproc su GKE non includono VM master e worker separate. Quando crei un cluster virtuale Dataproc su GKE, Dataproc su GKE crea pool di nodi all'interno di un cluster GKE. I job Dataproc su GKE vengono eseguiti come pod su questi node pool. I pool di nodi e la pianificazione dei pod nei pool di nodi sono gestiti da GKE.