Monitorar e resolver problemas de sessões interativas
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Neste documento, descrevemos como monitorar e resolver problemas das sessões interativas do Dataproc sem servidor para Apache Spark usando a interface do Spark.
Interface do Spark
A interface do Spark coleta detalhes de execução do Apache Spark de sessões interativas do Serverless para Apache Spark. Não há cobrança pelo recurso da interface do Spark, que é ativado por padrão. Os dados coletados pelo recurso da interface do Spark são armazenados por 90 dias.
Permissões e papéis necessários do Identity and Access Management
As seguintes permissões são necessárias para usar o recurso da interface do Spark com sessões interativas:
Permissão de coleta de dados: dataproc.sessions.sparkApplicationWrite. Essa
permissão precisa ser concedida à conta de serviço que executa sessões interativas.
Ele está incluído na função
Dataproc Worker, que é concedida automaticamente à conta de serviço padrão do Compute Engine
usada por padrão pelo Serverless para Apache Spark. No entanto, se você especificar uma conta de serviço personalizada para sua sessão ou modelo de tempo de execução da sessão, adicione a permissão dataproc.sessions.sparkApplicationWrite a essa conta de serviço (normalmente, concedendo à conta de serviço o papel Worker do Dataproc).
Permissão de acesso à interface do Spark: dataproc.sessions.sparkApplicationRead. Essa
permissão precisa ser concedida a um usuário para acessar a interface do Spark no
consoleGoogle Cloud . Ela está incluída nos papéis
Dataproc Viewer, Dataproc Editor e Dataproc Administrator
(links em inglês). Para abrir a interface do Spark no console Google Cloud , você precisa ter um destes papéis ou um papel personalizado que inclua essa permissão.
Abra a interface do Spark
A página da interface do Spark está disponível no console Google Cloud .
Clique em um ID da sessão interativa para abrir a página Detalhes da sessão interativa.
Clique em Ver interface do Spark no menu superior.
O link Ver interface do Spark está desativado? Se uma
permissão obrigatória não for concedida,
ou se você desmarcar a caixa de seleção Ativar a interface do Spark na página de detalhes da sessão interativa ou definir
a propriedade spark.dataproc.appContext.enabled como false (padrão: true) ao
criar uma sessão ou
criar um modelo de tempo de execução da sessão,
o botão Ver interface do Spark será desativado.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-09-04 UTC."],[[["\u003cp\u003eThe Spark UI is a free feature that collects and displays Apache Spark execution details from Dataproc Serverless interactive sessions, retaining data for 90 days, and is enabled by default.\u003c/p\u003e\n"],["\u003cp\u003eTo use the Spark UI with interactive sessions, the service account running the session needs the \u003ccode\u003edataproc.sessions.sparkApplicationWrite\u003c/code\u003e permission, and users accessing the UI need the \u003ccode\u003edataproc.sessions.sparkApplicationRead\u003c/code\u003e permission.\u003c/p\u003e\n"],["\u003cp\u003eYou can access the Spark UI by navigating to the Dataproc Interactive Sessions in the Google Cloud console, selecting an interactive session, and clicking "View Spark UI" in the top menu.\u003c/p\u003e\n"],["\u003cp\u003eThe "View Spark UI" button will be disabled if the necessary permissions are missing or if the Spark UI feature has been disabled during session creation by unchecking the "Enable Spark UI" checkbox or setting the \u003ccode\u003espark.dataproc.appContext.enabled\u003c/code\u003e property to false.\u003c/p\u003e\n"]]],[],null,["# Monitor and troubleshoot interactive sessions\n\nThis document describes how to monitor and troubleshoot Serverless for Apache Spark [interactive sessions](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions) using the Spark UI.\n\n\u003cbr /\u003e\n\nSpark UI\n--------\n\nThe Spark UI collects Apache Spark execution details from Serverless for Apache Spark\ninteractive sessions. There is no charge for the Spark UI feature,\nwhich is enabled by default. Data collected by the Spark UI feature is retained\nfor 90 days.\n| **Note:** The Spark UI also collects and displays execution details from Serverless for Apache Spark batch workloads. See [Monitor and troubleshoot batch workloads](/dataproc-serverless/docs/guides/monitor-troubleshoot-batches) for more information.\n\n### Required Identity and Access Management permissions and roles\n\nThe following permissions are required to use the Spark UI feature with interactive\nsessions:\n\n- Data collection permission: `dataproc.sessions.sparkApplicationWrite`. This\n permission must be granted to the service account that runs interactive sessions.\n It is included in the\n [`Dataproc Worker`](/iam/docs/understanding-roles#dataproc.worker)\n role, which is automatically granted to the Compute Engine default service account\n that Serverless for Apache Spark uses by default. However, if you specify a\n [custom service account](/dataproc-serverless/docs/concepts/service-account)\n for your [session](/sdk/gcloud/reference/beta/dataproc/sessions/create#--service-account)\n or [session runtime template](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions#dataproc_create_serverless_runtime_template_yaml-Complex%20YAML),\n you must add this `dataproc.sessions.sparkApplicationWrite` permission to that service account\n (typically, by granting the service account the Dataproc `Worker` role).\n\n- Spark UI access permission: `dataproc.sessions.sparkApplicationRead`. This\n permission must be granted to a user to access the Spark UI in the\n Google Cloud console. It is included in the\n [`Dataproc Viewer`, `Dataproc Editor` and `Dataproc Administrator`](/dataproc-serverless/docs/concepts/iam#roles)\n roles. To open the Spark UI in the Google Cloud console, you must have one of\n these roles or have a custom role that includes this permission.\n\n### Open the Spark UI\n\nThe Spark UI page is available in the Google Cloud console.\n\n1. [Go to Dataproc Interactive Sessions](https://console.cloud.google.com/dataproc/interactive)\n\n2. Click an **Interactive Session ID** to open the **Interactive Session Details** page.\n3. Click **View Spark UI** in the top menu.\n\n**Is the *View Spark UI* link disabled?** If a\n[required permission is not granted](#required-iam-permissions-and-roles),\nor if you clear the **Enable Spark UI** checkbox on the interactive session details page or set\nthe `spark.dataproc.appContext.enabled` property to `false` (default: `true`) when you\n[create a session](/sdk/gcloud/reference/beta/dataproc/sessions/create/spark#--property) or\n[create a session runtime template](/dataproc-serverless/docs/quickstarts/jupyterlab-sessions#create_a_serverless_runtime_template),\nthe **View Spark UI** button will be disabled."]]