Descripción general de Dataproc en GKE

Dataproc en GKE te permite ejecutar aplicaciones de macrodatos con la API de Dataproc jobs en clústeres de GKE. Usa la Google Cloud consola, Google Cloud CLI o la API de Dataproc (solicitud HTTP o bibliotecas cliente de Cloud) para crear un clúster virtual de Dataproc en GKE y, luego, envía un trabajo de Spark, PySpark, SparkR o Spark SQL al servicio de Dataproc.

Dataproc en GKE admite las versiones de Spark 3.5.

Cómo funciona Dataproc en GKE

Dataproc en GKE implementa clústeres virtuales de Dataproc en un clúster de GKE. A diferencia de los clústeres de Dataproc en Compute Engine, los clústeres virtuales de Dataproc en GKE no incluyen VMs principales y de trabajador separadas. En cambio, cuando creas un clúster virtual de Dataproc en GKE, Dataproc en GKE crea grupos de nodos dentro de un clúster de GKE. Los trabajos de Dataproc en GKE se ejecutan como Pods en estos grupos de nodos. GKE administra los grupos de nodos y la programación de los pods en ellos.