Panoramica di Dataproc su GKE

Dataproc su GKE consente di eseguire applicazioni di big data utilizzando l'API Dataproc jobs sui cluster GKE. Utilizza la console Google Cloud , Google Cloud CLI o l'API Dataproc (richiesta HTTP o librerie client di Cloud) per creare un cluster virtuale Dataproc su GKE, poi invia un job Spark, PySpark, SparkR o Spark SQL al servizio Dataproc.

Dataproc su GKE supporta le versioni di Spark 3.5.

Come funziona Dataproc su GKE

Dataproc su GKE esegue il deployment di cluster virtuali Dataproc su un cluster GKE. A differenza dei cluster Dataproc su Compute Engine, i cluster virtuali Dataproc su GKE non includono VM master e worker separate. Al contrario, quando crei un cluster virtuale Dataproc su GKE, Dataproc su GKE crea node pool all'interno di un cluster GKE. I job Dataproc su GKE vengono eseguiti come pod su questi node pool. I node pool e la pianificazione dei pod sui node pool sono gestiti da GKE.