Scrivere ed eseguire job Spark Scala su Dataproc

Questo tutorial illustra diversi modi per creare e inviare un job Spark Scala a un cluster Dataproc, tra cui come:

  • scrivere e compilare un'app Spark Scala "Hello World" su un computer locale dalla riga di comando utilizzando lo Scala REPL (Read-Evaluate-Print-Loop o interprete interattivo) o lo strumento di compilazione SBT
  • pacchettizza le classi Scala compilate in un file jar con un manifest
  • Invia il file jar Scala a un job Spark eseguito sul tuo cluster Dataproc
  • esamina l'output del job Scala dalla console Google Cloud

Questo tutorial illustra anche come:

  • Scrivi ed esegui un job mapreduce "Conteggio parole" in Spark Scala direttamente su un cluster Dataproc utilizzando la REPL spark-shell

  • Esegui esempi di Apache Spark e Hadoop preinstallati su un cluster

Configura un progetto Google Cloud Platform

Se non l'hai ancora fatto:

  1. Configurare un progetto
  2. Crea un bucket Cloud Storage
  3. Crea un cluster Dataproc

Scrivere e compilare codice Scala a livello locale

Come semplice esercizio per questo tutorial, scrivi un'app Scala "Hello World" utilizzando la REPL Scala o l'interfaccia a riga di comando SBT localmente sulla tua macchina di sviluppo.

Utilizzare Scala

  1. Scarica i binari di Scala dalla pagina Installazione di Scala
  2. Estrai il file, imposta la variabile di ambiente SCALA_HOME e aggiungila al percorso, come indicato nelle istruzioni di installazione di Scala. Ad esempio:

    export SCALA_HOME=/usr/local/share/scala
    export PATH=$PATH:$SCALA_HOME/
    

  3. Avvia la REPL di Scala

    $ scala
    Welcome to Scala version ...
    Type in expressions to have them evaluated.
    Type :help for more information.
    scala>
    

  4. Copia e incolla il codice HelloWorld nella REPL di Scala

    object HelloWorld {
      def main(args: Array[String]): Unit = {
        println("Hello, world!")
      }
    }

  5. Salva HelloWorld.scala ed esci dalla REPL

    scala> :save HelloWorld.scala
    scala> :q
    

  6. Compila con scalac

    $ scalac HelloWorld.scala
    

  7. Elenca i file .class compilati

    $ ls HelloWorld*.class
    HelloWorld$.class   HelloWorld.class
    

Utilizzare SBT

  1. Scarica SBT

  2. Crea un progetto "HelloWorld", come mostrato di seguito

    $ mkdir hello
    $ cd hello
    $ echo \
    'object HelloWorld {def main(args: Array[String]) = println("Hello, world!")}' > \
    HelloWorld.scala
    

  3. Crea un file di configurazione sbt.build per impostare artifactName (il nome del file jar che genererai di seguito) su "HelloWorld.jar" (vedi Modificare gli elementi predefiniti)

    echo \
    'artifactName := { (sv: ScalaVersion, module: ModuleID, artifact: Artifact) =>
    "HelloWorld.jar" }' > \
    build.sbt
    

  4. Avvia SBT ed esegui il codice

    $ sbt
    [info] Set current project to hello ...
    > run
    ... Compiling 1 Scala source to .../hello/target/scala-.../classes...
    ... Running HelloWorld
    Hello, world!
    [success] Total time: 3 s ...
    

  5. Impacchetta il codice in un file jar con un manifest che specifica l'entry point della classe principale (HelloWorld), quindi esci

    > package
    ... Packaging .../hello/target/scala-.../HelloWorld.jar ...
    ... Done packaging.
    [success] Total time: ...
    > exit
    

Crea un barattolo

Crea un file jar con SBT o utilizzando il comando jar.

Creare un file JAR con SBT

Il comando package di SBT crea un file JAR (vedi Utilizzare SBT).

Creare un file jar manualmente

  1. Cambia directory (cd) nella directory contenente i file HelloWorld*.class compilati, quindi esegui il seguente comando per pacchettizzare i file di classe in un file JAR con un manifest che specifica il punto di contatto della classe principale (HelloWorld).
    $ jar cvfe HelloWorld.jar HelloWorld HelloWorld*.class
    added manifest
    adding: HelloWorld$.class(in = 637) (out= 403)(deflated 36%)
    adding: HelloWorld.class(in = 586) (out= 482)(deflated 17%)
    

Copia il file JAR in Cloud Storage

  1. Utilizza Google Cloud CLI per copiare il file JAR in un bucket Cloud Storage del tuo progetto
$ gcloud storage cp HelloWorld.jar gs://<bucket-name>/
Copying file://HelloWorld.jar [Content-Type=application/java-archive]...
Uploading   gs://bucket-name/HelloWorld.jar:         1.46 KiB/1.46 KiB

Invia il file jar a un job Spark di Dataproc

  1. Utilizza la console Google Cloud per inviare il file JAR al job Spark Dataproc. Compila i campi della pagina Invia un job come segue:

    • Cluster: seleziona il nome del cluster dall'elenco dei cluster.
    • Tipo di job: Spark
    • Classe o file JAR principale: specifica il percorso dell'URI Cloud Storage del file JAR HelloWorld (gs://your-bucket-name/HelloWorld.jar).

      Se il file JAR non include un manifest che specifica il punto di contatto del codice ("Main-Class: HelloWorld"), il campo "Classe o file JAR principale" deve indicare il nome della classe principale ("HelloWorld") e devi compilare il campo "File JAR" con il percorso URI del file JAR (gs://your-bucket-name/HelloWorld.jar).

  2. Fai clic su Invia per avviare il job. Una volta avviato, il job viene aggiunto all'elenco Jobs.

  3. Fai clic sull'ID job per aprire la pagina Job, in cui puoi visualizzare l'output del driver del job.

Scrivi ed esegui codice Spark Scala utilizzando la REPL spark-shell del cluster

Ti consigliamo di sviluppare app Scala direttamente nel tuo cluster Dataproc. Hadoop e Spark sono preinstallati sui cluster Dataproc e sono configurati con il connettore Cloud Storage, che consente al codice di leggere e scrivere dati direttamente da e verso Cloud Storage.

Questo esempio mostra come connetterti tramite SSH al nodo master del cluster Dataproc del tuo progetto, quindi utilizzare il REPL spark-shell per creare ed eseguire un'applicazione mapreduce di conteggio delle parole in Scala.

  1. Esegui SSH sul nodo principale del cluster Dataproc

    1. Vai alla pagina Cluster di Dataproc del tuo progetto nella console Google Cloud, quindi fai clic sul nome del cluster.

    2. Nella pagina dei dettagli del cluster, seleziona la scheda Istanze VM, quindi fai clic sulla selezione SSH visualizzata a destra della riga del nome del cluster.

      Viene aperta una finestra del browser nella home directory sul nodo principale

  2. Avvia spark-shell

    $ spark-shell
    ...
    Using Scala version ...
    Type in expressions to have them evaluated.
    Type :help for more information.
    ...
    Spark context available as sc.
    ...
    SQL context available as sqlContext.
    scala>
    

  3. Crea un RDD (Resilient Distributed Dataset) da uno snippet di testo di Shakespeare situato in Cloud Storage pubblico

    scala> val text_file = sc.textFile("gs://pub/shakespeare/rose.txt")
    

  4. Esegui un job MapReduce di conteggio delle parole sul testo, quindi visualizza il risultato wordcounts

    scala> val wordCounts = text_file.flatMap(line => line.split(" ")).map(word =>
    (word, 1)).reduceByKey((a, b) => a + b)
    scala> wordCounts.collect
    ... Array((call,1), (What's,1), (sweet.,1), (we,1), (as,1), (name?,1), (any,1), (other,1),
    (rose,1), (smell,1), (name,1), (a,2), (would,1), (in,1), (which,1), (That,1), (By,1))
    

  5. Salva i conteggi in <bucket-name>/wordcounts-out in Cloud Storage, quindi esci da scala-shell

    scala> wordCounts.saveAsTextFile("gs://<bucket-name>/wordcounts-out/")
    scala> exit
    

  6. Utilizza gcloud CLI per elencare i file di output e visualizzarne i contenuti

    $ gcloud storage ls gs://bucket-name/wordcounts-out/
    gs://spark-scala-demo-bucket/wordcounts-out/
    gs://spark-scala-demo-bucket/wordcounts-out/_SUCCESS
    gs://spark-scala-demo-bucket/wordcounts-out/part-00000
    gs://spark-scala-demo-bucket/wordcounts-out/part-00001
    

  7. Controllare i contenuti di gs://<bucket-name>/wordcounts-out/part-00000

    $ gcloud storage cat gs://bucket-name/wordcounts-out/part-00000
    (call,1)
    (What's,1)
    (sweet.,1)
    (we,1)
    (as,1)
    (name?,1)
    (any,1)
    (other,1)
    

Eseguire il codice di esempio preinstallato

Il nodo principale Dataproc contiene file JAR eseguibili con esempi standard di Apache Hadoop e Spark.

Tipo di file jar Master node /usr/lib/ location GitHub Source Documentazione Apache
Hadoop hadoop-mapreduce/hadoop-mapreduce-examples.jar link alla fonte Tutorial MapReduce
Spark spark/lib/spark-examples.jar link alla fonte Esempi di Spark

Invio di esempi al cluster dalla riga di comando

Gli esempi possono essere inviati dalla macchina di sviluppo locale utilizzando lo strumento a riga di comando gcloud Google Cloud CLI (consulta Utilizzare la console Google Cloud per inviare job dalla console Google Cloud).

Esempio di WordCount di Hadoop

gcloud dataproc jobs submit hadoop --cluster=cluster-name \
    --region=region \
    --jars=file:///usr/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar \
    --class=org.apache.hadoop.examples.WordCount \
    -- URI of input file URI of output file

Esempio di WordCount di Spark

gcloud dataproc jobs submit spark --cluster=cluster-name \
    --region=region \
    --jars=file:///usr/lib/spark/examples/jars/spark-examples.jar \
    --class=org.apache.spark.examples.JavaWordCount \
    -- URI of input file

Arresta il cluster

Per evitare addebiti continui, arresta il cluster ed elimina le risorse Cloud Storage (bucket e file Cloud Storage) utilizzate per questo tutorial.

Per arrestare un cluster:

gcloud dataproc clusters delete cluster-name \
    --region=region

Per eliminare il file jar di Cloud Storage:

gcloud storage rm gs://bucket-name/HelloWorld.jar

Puoi eliminare un bucket e tutte le relative cartelle e file con il seguente comando:

gcloud storage rm gs://bucket-name/ --recursive

Passaggi successivi