Use o plug-in do Dataproc JupyterLab para sessões interativas de notebook e lote sem servidor

Limitações e considerações do Dataproc sem servidor

  • Os jobs do Spark são executados com a identidade da conta de serviço, não com a identidade do usuário que fez o envio.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Enable the Dataproc API.

    Enable the API

  4. Install the Google Cloud CLI.
  5. To initialize the gcloud CLI, run the following command:

    gcloud init
  6. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  7. Enable the Dataproc API.

    Enable the API

  8. Install the Google Cloud CLI.
  9. To initialize the gcloud CLI, run the following command:

    gcloud init

Instalar o plug-in do JupyterLab do Dataproc

É possível instalar e usar o plug-in Dataproc JupyterLab em uma máquina ou VM que tenha acesso aos serviços do Google, como a máquina local ou uma instância de VM do Compute Engine.

Para instalar o plug-in, siga estas etapas:

  1. Verifique se o Python 3.8+ está instalado na sua máquina. Você pode fazer o download e instalar o Python em python.org/downloads.

    1. Verifique a instalação do Python 3.8+.

      python3 --version
  2. Instale o JupyterLab 3.6.3+ na sua máquina.

    pip3 install --upgrade jupyterlab
    1. Verifique a instalação do JupyterLab 3.6.3 ou mais recente.

      pip3 show jupyterlab
  3. Instalar o plug-in do Dataproc JupyterLab.

    pip3 install dataproc-jupyter-plugin
    1. Se a versão do JupyterLab for anterior à 4.0.0, ative a extensão do plug-in.

      jupyter server extension enable dataproc_jupyter_plugin
  4. Inicie o JupyterLab.

    jupyter lab
    1. A página Iniciador do JupyterLab será aberta no navegador. Ela contém uma seção Jobs e sessões do Dataproc. Ele também pode conter Seções Notebooks sem servidor do Dataproc e Notebooks de cluster do Dataproc se você tiver acesso a notebooks sem servidor do Dataproc ou clusters do Dataproc com o componente opcional Jupyter em execução no projeto.

    2. Por padrão, a sessão interativa do Dataproc Serverless para Spark é executada no projeto e na região que você definiu quando executou gcloud init Antes de começar. É possível alterar o projeto e as configurações de região das suas sessões da JupyterLab Configurações > página "Configurações do Dataproc".

Criar um modelo de ambiente de execução sem servidor do Dataproc

Modelos de ambiente de execução sem servidor do Dataproc (também chamados de modelos session) contêm definições de configuração para executar o código Spark em uma sessão. Você pode criar e gerenciar modelos de ambiente de execução usando o Jupyterlab ou a CLI gcloud.

JupyterLab

  1. Clique no card New runtime template em Notebooks sem servidor do Dataproc na página Launcher do JupyterLab.

  2. Preencha o formulário Modelo de ambiente de execução.

  3. Especifique um Nome de exibição e uma Descrição e insira ou confirme as outras configurações.

    Observações:

    • Configuração de rede: a sub-rede precisa ativar o Acesso privado do Google. e precisa permitir a comunicação por sub-rede em todas as portas (consulte Dataproc sem servidor para configuração de rede do Spark).

      Se a sub-rede da rede default para a região que você configurou quando você executou gcloud init em Antes de começar não está ativado para o Acesso privado do Google:

      • Ative o recurso para o Acesso privado do Google ou
      • Selecione outra rede com uma sub-rede regional que tenha o Acesso privado do Google ativado. É possível alterar a região usada pelo Dataproc sem servidor na página Configurações > página "Configurações do Dataproc".
    • Metastore: para usar um Serviço Dataproc Metastore nas suas sessões, selecione o ID do projeto, a região e o serviço do metastore.

    • Tempo máximo de inatividade:é o tempo máximo de inatividade do notebook antes que a sessão seja encerrado. Intervalo permitido: de 10 minutos a 336 horas (14 dias).

    • Tempo máximo da sessão: o ciclo de vida máximo de uma sessão antes que ela seja encerrado. Intervalo permitido: de 10 minutos a 336 horas (14 dias).

    • PHS: é possível selecionar um servidor de histórico persistente do Spark disponível para acessar os registros de sessão durante e após as sessões.

    • Propriedades do Spark: clique em Adicionar propriedade para cada propriedade a ser definida para suas sessões do Spark sem servidor. Consulte Propriedades do Spark para uma lista de propriedades do Spark com e sem suporte, incluindo Propriedades de ambiente de execução, recursos e escalonamento automático do Spark.

    • Rótulos: clique em Adicionar rótulo para definir cada rótulo nas suas sessões do Spark sem servidor.

  4. Confira seus modelos de ambiente de execução em Configurações > Configurações do Dataproc página.

    • Você pode excluir um modelo do menu Ação do modelo.
  5. Clique em Salvar.

  6. Abra e atualize a página Launcher do JupyterLab para conferir o modelo de notebook salvo na página Iniciador do JupyterLab.

gcloud

  1. Crie um arquivo YAML com a configuração do modelo de execução.

    YAML simples

    environmentConfig:
      executionConfig:
        networkUri: default
    jupyterSession:
      kernel: PYTHON
      displayName: Team A
    labels:
      purpose: testing
    description: Team A Development Environment
    

    YAML complexo

    environmentConfig:
      executionConfig:
        serviceAccount: sa1
        # Choose either networkUri or subnetworkUri
        networkUri: default
        subnetworkUri: subnet
        networkTags:
         - tag1
        kmsKey: key1
        idleTtl: 3600s
        ttl: 14400s
        stagingBucket: staging-bucket
      peripheralsConfig:
        metastoreService: projects/my-project-id/locations/us-central1/services/my-metastore-id
        sparkHistoryServerConfig:
          dataprocCluster: projects/my-project-id/regions/us-central1/clusters/my-cluster-id
    jupyterSession:
      kernel: PYTHON
      displayName: Team A
    labels:
      purpose: testing
    runtimeConfig:
      version: "1.1"
      containerImage: gcr.io/my-project-id/my-image:1.0.1
      properties:
        "p1": "v1"
    description: Team A Development Environment
    

    Se a sub-rede da rede default para a região que você configurou ao executar gcloud init em Antes de começar não estiver ativada para o Acesso privado do Google:

    • Ative o Acesso privado do Google ou
    • Selecione outra rede com uma sub-rede regional que tenha o Acesso privado do Google ativado. É possível alterar a região usada pelo Dataproc sem servidor na página Configurações > página "Configurações do Dataproc".
  2. Crie um modelo de sessão (ambiente de execução) do seu arquivo YAML executando o seguinte: gcloud beta dataproc session-templates import local ou no Cloud Shell:

    gcloud beta dataproc session-templates import TEMPLATE_ID \
        --source=YAML_FILE \
        --project=PROJECT_ID \
        --location=REGION
    

Iniciar e gerenciar notebooks

Depois de instalar o plug-in do JupyterLab do Dataproc, clique nos cards de modelo na página Acesso rápido do JupyterLab para:

Iniciar um notebook do Jupyter no Dataproc sem servidor

A seção Dataproc Serverless Notebooks na página do iniciador do JupyterLab mostra cards de modelos de notebook que são mapeados para modelos de ambiente de execução do Dataproc Serverless. Consulte Criar um modelo de ambiente de execução do Dataproc Serverless.

  1. Clique em um card para criar uma sessão do Dataproc sem servidor e iniciar um notebook. Quando a criação da sessão for concluída e o notebook pronto para uso, o status do kernel muda de Unknown a Idle.

  2. Escreva e teste o código do notebook.

    1. Copie e cole o seguinte código Pi estimation do PySpark na célula do notebook PySpark e, em seguida, pressione Shift+Return para executar o código.

      import random
          
      def inside(p):
          x, y = random.random(), random.random()
          return x*x + y*y < 1
          
      count = sc.parallelize(range(0, 10000)) .filter(inside).count()
      print("Pi is roughly %f" % (4.0 * count / 10000))

      Resultado do notebook:

  3. Depois de criar e usar um notebook, é possível encerrar a sessão dele Clique em Encerrar o kernel na guia Kernel.

    • Se você não encerrar a sessão, o Dataproc vai encerrar a sessão quando o timer de inatividade da sessão expirar. É possível configurar a sessão tempo de inatividade na configuração do modelo de ambiente de execução. O tempo de inatividade padrão da sessão é de uma hora.

Iniciar um notebook em um cluster do Dataproc no Compute Engine

Se você criou um cluster do Jupyter do Dataproc no Compute Engine, a página Launcher do JupyterLab contém um Seção Notebook de cluster do Dataproc com cards de kernel pré-instalados.

Para iniciar um notebook do Jupyter no Dataproc Cluster do Compute Engine:

  1. Clique em um card na seção Notebook do cluster do Dataproc.

  2. Quando o status do kernel muda de Unknown para Idle, é possível começar a escrever e executar o código do notebook.

  3. Depois de criar e usar um notebook, é possível encerrar a sessão dele Clique em Encerrar o kernel na guia Kernel.

Gerenciar arquivos de entrada e saída no Cloud Storage

Analisar dados exploratórios e criar modelos de ML geralmente envolve e saídas baseadas em arquivo. O Dataproc sem servidor acessa esses arquivos no Cloud Storage.

  • Para acessar o navegador do Cloud Storage, clique nele. na barra lateral da página Iniciador do JupyterLab e clique duas vezes pasta para ver o conteúdo dela.

  • Clique nos tipos de arquivo compatíveis com o Jupyter para abri-los e editá-los. Quando você salvar alterações nos arquivos, elas são gravadas no Cloud Storage.

  • Para criar uma nova pasta do Cloud Storage, clique no ícone correspondente e digite o nome da pasta.

  • Para fazer upload de arquivos em um bucket ou uma pasta do Cloud Storage, clique no ícone de upload e selecione os arquivos.

Desenvolver código do notebook Spark

Depois de instalar o plug-in do JupyterLab para Dataproc, é possível abrir os notebooks Jupyter na página Launcher do JupyterLab para desenvolver no código do aplicativo.

Desenvolvimento de código em PySpark e Python

O Dataproc sem servidor e o Dataproc em clusters do Compute Engine oferecem suporte a kernels do PySpark. Dataproc no Compute Engine também oferece suporte a kernels do Python.

Desenvolvimento de código SQL

Clique no card do kernel do PySpark na Notebooks sem servidor do Dataproc ou Notebook de cluster do Dataproc seção da página Launcher do JupyterLab para abrir um notebook PySpark para escrever e executar código SQL.

Mágica do Spark SQL:já que o kernel do PySpark que é iniciado Notebooks sem servidor do Dataproc é pré-carregado com a mágica do Spark SQL, em vez de usar spark.sql('SQL STATEMENT').show() para encapsular sua instrução SQL, digite %%sparksql magic na parte superior de uma célula e, em seguida, digite sua instrução SQL na célula.

BigQuery SQL: o conector BigQuery Spark permite que o código do seu notebook carregue dados das tabelas do BigQuery, fazer análises no Spark e gravar os resultados em uma tabela do BigQuery.

O ambiente de execução do Dataproc sem servidor 2.1 inclui o Conector do Spark do BigQuery Se você usa o Dataproc sem servidor 2.0 ou um ambiente de execução anterior para iniciar notebooks do Dataproc sem servidor, instale o conector do BigQuery do Spark adicionando a seguinte propriedade do Spark ao modelo de ambiente de execução sem servidor do Dataproc:

spark.jars: gs://spark-lib/bigquery/spark-bigquery-with-dependencies_2.12-0.25.2.jar

Desenvolvimento de código em Scala

Clusters do Dataproc no Compute Engine criados com imagem versão 2.0+, 2.1+ e posterior, incluem Apache Toree, um kernel em Scala para a plataforma de notebooks Jupyter que fornece acesso interativo para o Spark.

  • Clique no card do Apache Toree Notebook de cluster do Dataproc na página Launcher do JupyterLab para abrir um notebook para o Scala desenvolvimento de código.

Explorador de metadados

Se uma instância do metastore do Dataproc (DPMS, na sigla em inglês) for anexada a um modelo de execução sem servidor do Dataproc ou a um cluster do Dataproc no Compute Engine, o esquema da instância do DPMS será exibido no JupyterLab Metadata Explorer quando um notebook for aberto. O DPMS é um serviço de metastore Hive (HMS) totalmente gerenciado e escalonável horizontalmente no Google Cloud.

Para visualizar os metadados HMS no Metadata Explorer:

Para abrir o explorador de metadados do JupyterLab, clique no ícone dele na barra lateral.

Você pode pesquisar um banco de dados, uma tabela ou uma coluna no Metadata Explorer. Clique em um banco de dados, tabela ou nome de coluna para exibir os metadados associados.

Implantar seu código

Depois de instalar o plug-in JupyterLab do Dataproc, é possível usar o JupyterLab para:

  • Execute o código do seu notebook na infraestrutura sem servidor do Dataproc

  • Envie jobs em lote para a infraestrutura do Dataproc sem servidor ou Dataproc no cluster do Compute Engine.

Executar o código do notebook no Dataproc Serverless

  • Clique no ícone Executar ou pressione as teclas Shift + Enter para executar o código em uma célula do notebook.

  • Use o menu Executar para executar o código em uma ou mais células do notebook.

Enviar um job em lote para o Dataproc sem servidor

  • Clique no card Serverless na seção Jobs and Sessions do Dataproc na página Launcher do JupyterLab.

  • Clique na guia Batch, depois clique em Create Batch e preencha Campos Batch Info.

  • Clique em Enviar para enviar o job.

Enviar um job em lote para um cluster do Dataproc no Compute Engine

  • Clique no card Clusters na seção Jobs e sessões do Dataproc na página Launcher do JupyterLab.

  • Clique na guia Jobs e em Enviar job.

  • Selecione um Cluster e preencha os campos de Job.

  • Clique em Enviar para enviar o job.

Ver e gerenciar recursos

Depois de instalar o plug-in do JupyterLab para Dataproc, você pode ver e gerenciar o Dataproc sem servidor e o Dataproc no Compute Engine na seção Jobs e sessões do Dataproc na página Iniciador do JupyterLab.

Clique na seção Jobs e sessões do Dataproc para mostrar os cards Clusters e Serverless.

Para visualizar e gerenciar sessões do Dataproc sem servidor:

  1. Clique no cartão Sem servidor.
  2. Clique na guia Sessions e em um ID de sessão para abrir os Detalhes da sessão. para conferir as propriedades da sessão, os registros do Google Cloud na Análise de registros e encerrar uma sessão. Observação: uma sessão exclusiva do Dataproc sem servidor é criada para iniciar cada Notebook sem servidor do Dataproc.

Para visualizar e gerenciar lotes do Dataproc sem servidor:

  1. Clique na guia Batches para conferir a lista de lotes do Dataproc Serverless no projeto e na região atuais. Clique no ID de um lote para visualizar os detalhes dele.

Para visualizar e gerenciar clusters do Dataproc no Compute Engine:

  1. Clique no card Clusters. A guia Clusters está selecionada para listar ativos do Dataproc nos clusters do Compute Engine no projeto e na região atuais. Clique nos ícones na coluna Ações para iniciar, interromper ou reiniciar um cluster. Clique no nome de um cluster para conferir os detalhes do cluster. Você pode clicar nos ícones na coluna Ações. para clonar, interromper ou excluir um job.

Para visualizar e gerenciar jobs do Dataproc no Compute Engine:

  1. Clique no card Jobs para ver a lista de jobs na do projeto atual. Clique em um ID de job para ver os detalhes do job.