Exportar sua pegada de carbono

Você pode exportar seus dados da Pegada de carbono para o BigQuery para realizar análises de dados ou criar painéis e relatórios personalizados.

A exportação da Pegada de carbono captura as emissões estimadas de gases do efeito estufa associadas ao uso dos serviços Google Cloud cobertos na conta de faturamento selecionada.

Depois de configurar uma exportação, você recebe uma cobrança pelos recursos do BigQuery usados para armazenar e consultar os dados exportados.

Antes de começar

Para criar uma exportação da Pegada de carbono, recomendamos ter os seguintes papéis do IAM:

Mais precisamente, você precisa ter as seguintes permissões do IAM no projeto Google Cloud :

  • resourcemanager.projects.update
  • serviceusage.services.enable
  • bigquery.transfers.update

E a seguinte permissão do IAM na conta de faturamento:

  • billing.accounts.getCarbonInformation

Se você estiver usando o VPC Service Controls

Se a sua organização estiver usando o VPC Service Controls, uma regra de entrada precisará ser definida para a API BigQuery e a API BigQuery Data Transfer Service.

Para sua regra de política de entrada:

  • Defina a origem na seção "De" como "Todas as fontes permitidas".
  • Conceda permissão à identidade, els-da-carbon@gcp-carbon-footprint-exports.iam.gserviceaccount.com.

Configurar uma exportação de pegada de carbono para o BigQuery

Os dados da pegada de carbono são exportados pelo serviço de transferência de dados do BigQuery. A transferência de dados cria uma tabela particionada mensal chamada carbon_footprint no conjunto de dados do BigQuery de sua escolha.

A Pegada de carbono exporta os dados de cada mês no dia 15 do mês seguinte. Por exemplo, os dados de carbono de setembro de 2022 serão exportados em 15 de outubro de 2022.

Depois que uma configuração de transferência de Pegada de carbono é criada, ela exporta automaticamente os futuros relatórios de carbono no dia 15 de cada mês. Você também poderá executar um preenchimento para solicitar dados históricos desde janeiro de 2021.

Console

Siga estas etapas para iniciar a exportação:

  1. Acessar a Pegada de carbono
  2. Selecione a conta do Cloud Billing que você quer exportar no menu Conta de faturamento.
  3. Clique em Exportação de dados para abrir o painel lateral e configurar a exportação.
  4. Selecione um projeto para exportar os dados da pegada de carbono e clique em Criar exportação.
  5. Na página do serviço de transferência de dados do BigQuery:
    1. Verifique se a Origem está definida como "Exportações deGoogle Cloud pegada de carbono".
    2. Em Nome da configuração de transferência, insira um nome de exibição.
    3. Em Configurações de destino, clique no campo ID do conjunto de dados e selecione Criar conjunto de dados se quiser criar um novo conjunto de dados do BigQuery para hospedar a tabela exportada. Também é possível selecionar um conjunto de dados do BigQuery já existente.
    4. Em Detalhes da fonte de dados, confirme o ID da conta do Cloud Billing a ser exportada. Se quiser, adicione outros IDs de conta como uma lista separada por vírgulas. Todos os IDs de contas de faturamento precisam estar no formato XXXXXX-XXXXXX-XXXXXX.
  6. Clique em Salvar.
  7. Na janela de solicitação de acesso, clique em Permitir.

bq

Use o comando bq mk --transfer_config para iniciar a exportação:

bq mk \
--transfer_config \
--target_dataset=DATASET \
--display_name=NAME \
--params='{"billing_accounts":"BILLING_ACCOUNT_IDS"}' \
--data_source='61cede5a-0000-2440-ad42-883d24f8f7b8'

Em que:

  • DATASET é o conjunto de dados de destino na configuração da transferência:
  • NAME é o nome de exibição da configuração de transferência. Por exemplo: "Relatório de carbono da empresa".
  • BILLING_ACCOUNT_IDS é o ID da sua conta de faturamento ou uma lista separada por vírgulas de IDs de contas de faturamento. Por exemplo: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

Terraform

Use o recurso bigquery_data_transfer_config do Terraform para criar uma exportação:

resource "google_bigquery_data_transfer_config" "RESOURCE_NAME" {
  display_name           = "NAME"
  data_source_id         = "61cede5a-0000-2440-ad42-883d24f8f7b8"
  destination_dataset_id = google_bigquery_dataset.DATASET.dataset_id
  params = {
    billing_accounts     = "BILLING_ACCOUNT_IDS"
  }
}

Em que:

  • RESOURCE_NAME é o nome do recurso do Terraform. Por exemplo, carbon_export.
  • NAME é o nome de exibição da configuração de transferência. Por exemplo: "Relatório de carbono da empresa".
  • DATASET é o nome do recurso do Terraform google_bigquery_dataset a ser usado como o conjunto de dados de destino para a exportação.

  • BILLING_ACCOUNT_IDS é o ID da sua conta de faturamento ou uma lista separada por vírgulas de IDs de contas de faturamento. Por exemplo: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

A configuração de transferência foi criada e vai exportar dados no dia 15 de todos os meses futuros.

A configuração de transferência não exporta dados históricos automaticamente. Para solicitar dados históricos de volta a janeiro de 2021, programe um preenchimento de dados usando as etapas a seguir.

Console

Siga estas etapas para programar o preenchimento de dados:

  1. Acesse os detalhes da transferência que você acabou de criar.
  2. Clique em Programar preenchimento.
  3. Selecione Executar por um período.
  4. Selecione 15 de fevereiro de 2021 como a data de início e a data de hoje como a data de término. A exportação de 15 de fevereiro de 2021 contém os dados de janeiro de 2021 e, portanto, é o mês mais antigo disponível para solicitação.
  5. Clique em OK para solicitar o preenchimento de dados.

Os preenchimentos de dados serão criados para o período selecionado, exportando dados mensais históricos para o conjunto de dados de destino.

bq

Use o comando bq mk --transfer_run para criar um backfill:

bq mk \
--transfer_run \
--start_time=START_TIME \
--end_time=END_TIME \
CONFIG

Em que:

  • START_TIME é um carimbo de data/hora que especifica o horário de início do intervalo a ser preenchido. Por exemplo: 2021-02-15T00:00:00Z. A data mais antiga que você pode especificar aqui é 15 de fevereiro de 2021, porque ela contém os dados de janeiro de 2021.
  • END_TIME é um carimbo de data/hora que especifica o horário de término do intervalo a ser preenchido. Por exemplo: 2022-09-15T00:00:00Z. Você pode usar a data atual.
  • TRANSFER_CONFIG é o identificador da transferência criada na etapa anterior. Por exemplo, projects/0000000000000/locations/us/transferConfigs/00000000-0000-0000-0000-000000000000.

Depois que os dados são exportados, é possível usar o BigQuery para visualizar e consultar os dados. Leia mais sobre o esquema de dados.

Você pode compartilhar os dados exportados com outras pessoas na sua organização concedendo a elas a função do IAM de usuário do BigQuery no projeto selecionado anteriormente. Como alternativa, é possível conceder acesso detalhado no nível do conjunto de dados ou da tabela usando o papel do IAM de Leitor de dados do BigQuery.

Como gerenciar exportações da Pegada de carbono

Para conferir todas as exportações de Pegada de carbono, clique em Exportação de dados e abra o painel lateral.

Para gerenciar cada exportação de pegada de carbono, clique no nome da transferência para acessar o serviço de transferência de dados do BigQuery ou no nome do conjunto de dados para ver o conjunto de dados de destino. Saiba mais sobre Como trabalhar com transferências.

Exportar para as Planilhas Google ou CSV

Depois de configurar a exportação da pegada de carbono para o BigQuery e a exportação programada for concluída, você poderá exportar esses dados do BigQuery para o Google Sheets ou CSV.

  1. Acessar o BigQuery
  2. No painel Explorer, expanda o projeto e o conjunto de dados e selecione a tabela que contém os dados exportados da pegada de carbono.
  3. Clique em Consulta.
  4. Insira uma consulta para retornar os dados que você quer exportar. Veja um exemplo abaixo.
  5. Depois que a consulta for executada, em Resultados da consulta, clique em Salvar resultados.
  6. Selecione o formato desejado e clique em Salvar.

A consulta a seguir permite salvar todo o conteúdo da tabela exportada:

SELECT
  usage_month,
  billing_account_id,
  project.number AS project_number,
  project.id AS project_id,
  service.id AS service_id,
  service.description AS service_description,
  location.location AS location,
  location.region AS region,
  carbon_model_version,
  carbon_footprint_kgCO2e.scope1 AS carbon_footprint_scope1,
  carbon_footprint_kgCO2e.scope2.location_based AS carbon_footprint_scope2_location_based,
  carbon_footprint_kgCO2e.scope3 AS carbon_footprint_scope3,
  carbon_footprint_total_kgCO2e.location_based AS carbon_footprint_total_location_based
FROM
  `PROJECT.DATASET.carbon_footprint`
ORDER BY
  usage_month DESC,
  carbon_footprint_total_location_based DESC

A seguir