Crea un clúster de Dataproc con la consola de Google Cloud
En esta página, se muestra cómo usar la consola de Google Cloud para crear un clúster de Dataproc, ejecutar un trabajo básico de Apache Spark en el clúster y, luego, modificar la cantidad de trabajadores en él.
Para seguir la guía paso a paso sobre esta tarea directamente en la consola Google Cloud , haz clic en Guiarme:
Antes de comenzar
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
Enable the Dataproc API.
Crea un clúster
En la consola de Google Cloud , ve a la página Clústeres de Dataproc.
Haga clic en Crear clúster.
En el cuadro de diálogo Crear clúster de Dataproc, haz clic en Crear en la fila Clúster en Compute Engine.
En el campo Nombre del clúster, ingresa
example-cluster
.En las listas Región y Zona, selecciona una región y una zona.
Selecciona una región (por ejemplo,
us-east1
oeurope-west1
) para aislar los recursos, como las instancias de máquina virtual (VM) y las ubicaciones de almacenamiento de Cloud Storage y metadatos que Dataproc usa en la región. Para obtener más información, consulta Regiones y zonas disponibles y Extremos regionales.Para todas las demás opciones, usa la configuración predeterminada.
Para crear el clúster, haz clic en Crear.
Tu clúster nuevo aparecerá en una lista en la página Clústeres. El estado es Aprovisionando hasta que el clúster esté listo para usarse y, luego, cambia a En ejecución. El aprovisionamiento del clúster puede tardar unos minutos.
Enviar un trabajo de Spark
Envía un trabajo de Spark que calcule un valor de Pi:
- En el menú de navegación de Dataproc, haz clic en Trabajos.
En la página Trabajos, haz clic en
Enviar trabajo y, luego, haz lo siguiente:- En el campo ID de trabajo, usa el parámetro de configuración predeterminado o proporciona un ID que sea único para tu proyecto Google Cloud .
- En el menú desplegable Clúster, selecciona
example-cluster
. - En Tipo de trabajo, selecciona Spark.
- En el campo Clase principal o jar, ingresa
org.apache.spark.examples.SparkPi
. - En el campo Archivos JAR, ingresa
file:///usr/lib/spark/examples/jars/spark-examples.jar
. En el campo Arguments, ingresa
1000
para configurar la cantidad de tareas.Haz clic en Enviar.
Tu trabajo se mostrará en la página Detalles del trabajo. El estado del trabajo es En ejecución o Iniciando y, luego, cambia a Completado después de que se envía.
Para evitar el desplazamiento en el resultado, haz clic en Ajuste de línea: desactivado. El resultado es similar al siguiente:
Pi is roughly 3.1416759514167594
Para ver los detalles del trabajo, haz clic en la pestaña Configuración.
Actualiza un clúster
Actualiza tu clúster cambiando la cantidad de instancias de trabajadores:
- En el menú de navegación de Dataproc, haz clic en Clústeres.
- En la lista de clústeres, haz clic en
example-cluster
. En la página Detalles del clúster, haz clic en la pestaña Configuración.
Se mostrará la configuración del clúster.
Haz clic en
Editar.En el campo Nodos trabajadores, ingresa
5
.Haz clic en Guardar.
El clúster ya se actualizó. Para disminuir la cantidad de nodos trabajadores al valor original, sigue el mismo procedimiento.
Realiza una limpieza
Sigue estos pasos para evitar que se apliquen cargos a tu cuenta de Google Cloud por los recursos que usaste en esta página.
- Para borrar el clúster, en la página Detalles del clúster de
example-cluster
, haz clic en Borrar. - Para confirmar que deseas borrar el clúster, haz clic en Borrar.
¿Qué sigue?
- Prueba esta guía de inicio rápido con otras herramientas:
- Aprende a diseñar reglas de firewall sólidas cuando creas un proyecto.
- Aprende a escribir y ejecutar un trabajo de Spark Scala.