Para conferir uma lista dos seus jobs do Dataflow, acesse a página Dataflow > Jobs no console Google Cloud .
Uma lista de jobs do Dataflow é exibida junto com o status deles.

Um job pode ter os seguintes status:
- —: a interface de monitoramento ainda não recebeu um status do serviço Dataflow.
- Em execução: o job está em execução.
- Iniciando...: o job é criado, mas o sistema precisa de tempo para se preparar antes da inicialização.
- Em fila: um job do FlexRS está na fila ou um job do modelo flexível está sendo iniciado (o que pode levar vários minutos).
- Cancelando...: o job está sendo cancelado.
- Cancelado: o job foi cancelado.
- Drenando...: o job está sendo drenado.
- Drenado: o job foi drenado.
- Atualizando...: o job está sendo atualizado.
- Atualizado: o job está atualizado.
- Com êxito: o job foi concluído com sucesso.
- Com falha: o job não foi concluído.
Acessar visualizadores do job
Para acessar os gráficos de monitoramento do job, clique no Nome do job na interface de monitoramento do Dataflow. A página Detalhes do job é exibida com as seguintes informações:
- Gráfico do job: representação visual do pipeline
- Detalhes da execução: ferramenta para otimizar a performance do pipeline
- Métricas do job: métricas sobre a execução do job
- Custo: métricas sobre o custo estimado do job
- Escalonamento automático: métricas relacionadas a eventos de escalonamento automático do job de streaming
- Painel de informações do job: informações descritivas sobre seu pipeline
- Registros do job: registros gerados pelo serviço Dataflow no nível do job
- Registros do worker: registros gerados pelo serviço Dataflow no nível do worker
- Diagnóstico: tabela que mostra onde ocorreram erros ao longo do cronograma escolhido e possíveis recomendações para o pipeline
- Amostragem de dados: ferramenta que permite observar os dados em cada etapa de um pipeline.
Na página Detalhes do job, é possível alternar a visualização do job com as guias Gráfico do job, Detalhes da execução, Métricas do job, Custo e Escalonamento automático.
Usar a Google Cloud CLI para listar jobs
Também é possível usar a Google Cloud CLI para receber uma lista dos seus jobs do Dataflow.
Para listar os jobs do Dataflow no projeto, use o comando
dataflow jobs list
:
gcloud dataflow jobs list
O comando retorna uma lista dos jobs atuais. Confira a seguir um exemplo de saída:
ID NAME TYPE CREATION_TIME STATE REGION 2015-06-03_16_39_22-4020553808241078833 wordcount-janedoe-0603233849 Batch 2015-06-03 16:39:22 Done us-central1 2015-06-03_16_38_28-4363652261786938862 wordcount-johndoe-0603233820 Batch 2015-06-03 16:38:28 Done us-central1 2015-05-21_16_24_11-17823098268333533078 bigquerytornadoes-johndoe-0521232402 Batch 2015-05-21 16:24:11 Done europe-west1 2015-05-21_13_38_06-16409850040969261121 bigquerytornadoes-johndoe-0521203801 Batch 2015-05-21 13:38:06 Done us-central1 2015-05-21_13_17_18-18349574013243942260 bigquerytornadoes-johndoe-0521201710 Batch 2015-05-21 13:17:18 Done europe-west1 2015-05-21_12_49_37-9791290545307959963 wordcount-johndoe-0521194928 Batch 2015-05-21 12:49:37 Done us-central1 2015-05-20_15_54_51-15905022415025455887 wordcount-johndoe-0520225444 Batch 2015-05-20 15:54:51 Failed us-central1 2015-05-20_15_47_02-14774624590029708464 wordcount-johndoe-0520224637 Batch 2015-05-20 15:47:02 Done us-central1
Para mostrar mais informações sobre um job, use o comando
dataflow jobs describe
:
gcloud dataflow jobs describe JOB_ID
Substitua JOB_ID pelo job ID
. A saída desse comando é semelhante a esta:
createTime: '2015-02-09T19:39:41.140Z' currentState: JOB_STATE_DONE currentStateTime: '2015-02-09T19:56:39.510Z' id: 2015-02-09_11_39_40-15635991037808002875 name: tfidf-bchambers-0209193926 projectId: google.com:clouddfe type: JOB_TYPE_BATCH
Para formatar o resultado em JSON, execute o comando com a opção --format=json
:
gcloud --format=json dataflow jobs describe JOB_ID
Arquivar (ocultar) jobs do Dataflow de uma lista
Quando você arquiva um job do Dataflow, ele é removido da lista de jobs na página Jobs do Dataflow no console. O job é movido para uma lista de jobs arquivados. Só é possível arquivar jobs concluídos, o que inclui jobs nos seguintes estados:
JOB_STATE_CANCELLED
JOB_STATE_DRAINED
JOB_STATE_DONE
JOB_STATE_FAILED
JOB_STATE_UPDATED
Para mais informações sobre como verificar esses estados, consulte Detectar a conclusão do job do Dataflow.
Para informações sobre solução de problemas ao arquivar jobs, consulte Erros de jobs do Archive em "Resolver erros do Dataflow".
Todos os jobs arquivados são excluídos após um período de armazenamento de 30 dias.
Arquivar um job
Siga estas etapas para remover um job concluído da lista principal na página Jobs do Dataflow.
Console
No console Google Cloud , acesse a página Jobs do Dataflow.
Uma lista de jobs do Dataflow é exibida junto com o status deles.
Selecione um job.
Na página Detalhes do job, clique em Arquivar. Se o job não foi concluído, a opção Arquivar não estará disponível.
REST
Para arquivar um job usando a API, use o método
projects.locations.jobs.update
.
Nessa solicitação, especifique um objeto
JobMetadata
atualizado. No objeto JobMetadata.userDisplayProperties
, use o par de chave-valor "archived":"true"
.
Além do objeto JobMetadata
atualizado, a solicitação de API também precisa incluir o parâmetro de consulta updateMask no URL da solicitação:
https://dataflow.googleapis.com/v1b3/[...]/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- PROJECT_ID: ID do projeto;
- REGION: uma região do Dataflow
- JOB_ID: o ID do job do Dataflow
Método HTTP e URL:
PUT https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived
Corpo JSON da solicitação:
{ "job_metadata": { "userDisplayProperties": { "archived": "true" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X PUT \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method PUT `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "id": "JOB_ID", "projectId": "PROJECT_ID", "currentState": "JOB_STATE_DONE", "currentStateTime": "2025-05-20T20:54:41.651442Z", "createTime": "2025-05-20T20:51:06.031248Z", "jobMetadata": { "userDisplayProperties": { "archived": "true" } }, "startTime": "2025-05-20T20:51:06.031248Z" }
Acessar e restaurar jobs arquivados
Siga estas etapas para ver jobs arquivados ou restaurar jobs arquivados para a lista principal na página Jobs do Dataflow.
Console
No console Google Cloud , acesse a página Jobs do Dataflow.
Clique no botão de ativação Arquivados. Uma lista de jobs arquivados do Dataflow é exibida.
Selecione um job.
Para restaurar a lista principal de jobs na página Jobs do Dataflow, na página Detalhes do job, clique em Restaurar.
REST
Para restaurar um job arquivado usando a API, use o método
projects.locations.jobs.update
.
Nessa solicitação, especifique um objeto
JobMetadata
atualizado. No objeto JobMetadata.userDisplayProperties
, use o par de chave-valor "archived":"false"
.
Além do objeto JobMetadata
atualizado, a solicitação de API também precisa incluir o parâmetro de consulta updateMask no URL da solicitação:
https://dataflow.googleapis.com/v1b3/[...]/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived
Antes de usar os dados da solicitação abaixo, faça as substituições a seguir:
- PROJECT_ID: ID do projeto;
- REGION: uma região do Dataflow
- JOB_ID: o ID do job do Dataflow
Método HTTP e URL:
PUT https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived
Corpo JSON da solicitação:
{ "job_metadata": { "userDisplayProperties": { "archived": "false" } } }
Para enviar a solicitação, escolha uma destas opções:
curl
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
curl -X PUT \
-H "Authorization: Bearer $(gcloud auth print-access-token)" \
-H "Content-Type: application/json; charset=utf-8" \
-d @request.json \
"https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived"
PowerShell
Salve o corpo da solicitação em um arquivo com o nome request.json
e execute o comando a seguir:
$cred = gcloud auth print-access-token
$headers = @{ "Authorization" = "Bearer $cred" }
Invoke-WebRequest `
-Method PUT `
-Headers $headers `
-ContentType: "application/json; charset=utf-8" `
-InFile request.json `
-Uri "https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/REGION/jobs/JOB_ID/?updateMask=job_metadata.user_display_properties.archived" | Select-Object -Expand Content
Você receberá uma resposta JSON semelhante a esta:
{ "id": "JOB_ID", "projectId": "PROJECT_ID", "currentState": "JOB_STATE_DONE", "currentStateTime": "2025-05-20T20:54:41.651442Z", "createTime": "2025-05-20T20:51:06.031248Z", "jobMetadata": { "userDisplayProperties": { "archived": "false" } }, "startTime": "2025-05-20T20:51:06.031248Z" }