Preguntas frecuentes sobre Serverless para Apache Spark

En esta página, se incluyen respuestas a las preguntas frecuentes sobre Google Cloud Serverless para Apache Spark.

¿Cuándo debo usar Serverless para Apache Spark en lugar de Dataproc en Compute Engine?

  • Serverless para Apache Spark:

    • Admite cargas de trabajo por lotes de Spark y sesiones interactivas en notebooks de Jupyter con kernel de PySpark.
    • Serverless for Apache Spark crea y administra tu infraestructura de cargas de trabajo y sesiones interactivas.
  • Dataproc en Compute Engine:

    • Admite el envío de diferentes tipos de trabajos de Spark y trabajos basados en otros componentes de código abierto, como Flink, Hadoop, Hive, Pig, Presto y otros.

    • No crea ni administra la infraestructura. Creas y administras tus clústeres de Dataproc.

¿Qué puedo hacer con Serverless para Apache Spark?

¿Cómo debo configurar un plan de ejecución de la carga de trabajo?

Puedes ejecutar cargas de trabajo de forma simultánea o secuencial. Tu plan de ejecución afecta tu Google Cloud cuota de recursos. Puedes ejecutar tantas cargas de trabajo en paralelo como lo permitan las cuotas de tus recursos por lotes.

¿Puedo usar una imagen personalizada con Serverless for Apache Spark?

¿Puedo especificar recursos de memoria y disco para las cargas de trabajo de Spark de Serverless para Apache Spark?

Sí. Puedes especificar los niveles premium de procesamiento y disco del controlador y del ejecutor, y la cantidad de recursos de procesamiento y disco del controlador y del ejecutor que se asignarán cuando envíes una carga de trabajo (consulta Propiedades de asignación de recursos).

¿Cómo puedo especificar el rango de direcciones IP para mi red de VPC de Serverless for Apache Spark?

Las cargas de trabajo de Serverless para Apache Spark se ejecutan en tu entorno. Cada controlador y ejecutor de Spark en una carga de trabajo de Spark sin servidores consume una dirección IP interna en tu red de VPC de Serverless para Apache Spark. /16 es un rango de direcciones CIDR típico especificado por el usuario para una red de VPC de Serverless for Apache Spark. Puedes limitar el rango de direcciones IP de tu red según la cantidad de cargas de trabajo simultáneas que planeas ejecutar.

¿Serverless para Apache Spark admite la residencia de datos?

Sí. Especificas la región en la que se procesa tu carga de trabajo. Ubica tus conjuntos de datos de entrada y salida en la región especificada.

¿Cómo selecciona Serverless para Apache Spark una zona dentro de la región especificada para ejecutar la carga de trabajo?

Serverless para Apache Spark selecciona la zona de Compute Engine en la que ejecuta una carga de trabajo según la capacidad y la disponibilidad. Si una zona deja de estar disponible después de que se inicia una carga de trabajo, esta falla y debes volver a enviarla.

¿Cómo usan los recursos de procesamiento las cargas de trabajo de Serverless para Apache Spark?

Cada carga de trabajo se ejecuta en sus propios recursos de procesamiento. Los envíos de varios lotes no comparten ni reutilizan recursos de procesamiento.

Prácticas recomendadas:

  • Optimiza tu carga de trabajo para los trabajos de ejecución media, no para los de ejecución corta.

  • Persiste los datos a los que acceden varias cargas de trabajo en Cloud Storage.

¿Dónde puedo encontrar información sobre los anuncios, las funciones, las correcciones de errores, los problemas conocidos y las bajas de Serverless para Apache Spark?

Consulta las notas de la versión de Serverless para Apache Spark.

¿Las cargas de trabajo simultáneas compiten por los recursos?

Las cargas de trabajo de Serverless for Apache Spark solo compiten por los recursos si tu cuota de recursos es insuficiente para ejecutar todas las cargas de trabajo que se ejecutan de forma simultánea. De lo contrario, las cargas de trabajo están completamente aisladas entre sí.

¿Cómo se asigna la cuota de Serverless para Apache Spark?

Los lotes de Serverless para Apache Spark consumen Google Cloud recursos. Consulta Cuotas de Dataproc Serverless para obtener más información.

¿Necesito configurar un servidor de historial persistente de Dataproc?

La configuración de un servidor de historial persistente (PHS) para usar con Serverless for Apache Spark es opcional.Puedes usar el PHS para ver eventos de Spark y otros registros en un bucket de Cloud Storage especificado hasta el período de retención (TTL) estándar de 90 días del bucket de etapa de pruebas y temporal de Serverless for Apache Spark y después de este.

¿Qué registros de Spark de Serverless para Apache Spark están disponibles?

Los registros del controlador y los ejecutores de Spark están disponibles en Cloud Logging durante y después de la ejecución de la carga de trabajo de Spark. Además, las aplicaciones de Spark se pueden ver en la interfaz web del servidor de historial persistente (PHS) mientras se ejecuta la carga de trabajo (selecciona PHS > Incomplete Applications en la IU del PHS).

Si configuras un PHS de Dataproc, este proporciona acceso persistente a los registros de eventos de Spark guardados en Cloud Storage, que brindan información sobre la ejecución de la app de Spark, como los eventos de DAG y de ejecutores.

¿Puedo establecer la cantidad de ejecutores para mi carga de trabajo de Spark?

Sí. Puedes establecer la cantidad de ejecutores para una carga de trabajo de Spark con la propiedad spark.executor.instances. Sin embargo, la cantidad total de núcleos que puede usar una carga de trabajo es más importante que la cantidad de ejecutores, ya que Spark ejecuta 1 tarea por núcleo. Por ejemplo, si una carga de trabajo tiene cuatro ejecutores con dos núcleos cada uno, ejecutará 4 * 2 = 8 tareas al mismo tiempo. También ejecutará la misma cantidad de tareas para una carga de trabajo que tenga dos ejecutores con cuatro núcleos cada uno. Dado que la cantidad de núcleos para cada carga de trabajo es la misma, ejecutarán la misma cantidad de tareas. Puedes usar la propiedad spark.executor.cores para establecer la cantidad de núcleos por ejecutor para tu carga de trabajo de Serverless for Apache Spark.

¿Qué métricas de Spark usa Serverless para Apache Spark para el ajuste de escala automático?

Serverless para Apache Spark analiza las métricas de asignación dinámica de Spark maximum-needed y running para determinar si se debe aumentar o reducir la escala. Consulta Ajuste de escala automático de Serverless para Apache Spark.

¿Puedo configurar el comportamiento del ajuste de escala automático de Serverless para Apache Spark con las propiedades de Spark?

Sí. El ajuste de escala automático de Serverless for Apache Spark se basa en la asignación dinámica de Spark y está habilitado de forma predeterminada. Puedes ajustar las siguientes propiedades de Spark y propiedades de asignación dinámica de Spark:

  • spark.executor.instances
  • spark.dynamicAllocation.initialExecutors
  • spark.dynamicAllocation.minExecutors
  • spark.dynamicAllocation.maxExecutors

¿Por qué debo empaquetar mi código en un archivo JAR para enviar mi carga de trabajo de Spark?

Spark está escrito en Scala, lo que significa que tanto el controlador como los procesos de trabajo operan como procesos de JVM. En los lenguajes de JVM, el archivo JAR es la principal forma de empaquetar código. Pasas el archivo JAR a Serverless para Apache Spark cuando envías una carga de trabajo.