Exportar sua pegada de carbono

É possível exportar os dados da Pegada de carbono para o BigQuery para realizar análises de dados ou criar painéis e relatórios personalizados.

A Pegada de carbono captura emissões estimadas de gases do efeito estufa associadas ao uso de serviços cobertos do Google Cloud para a conta de faturamento selecionada.

Depois de configurar uma exportação, você vai receber cobranças Recursos do BigQuery usados para armazenar e consultar a dados exportados.

Antes de começar

Para criar uma exportação da Pegada de carbono, recomendamos o seguinte: Papéis do IAM:

Mais precisamente, você precisa ter as seguintes permissões do IAM em projeto do Google Cloud:

  • resourcemanager.projects.update
  • serviceusage.services.enable
  • bigquery.transfers.update

E a seguinte permissão do IAM na conta de faturamento:

  • billing.accounts.getCarbonInformation

Se estiver usando o VPC Service Controls

Se a organização estiver usando o VPC Service Controls, será necessário criar uma regra de entrada ser definido para a API BigQuery e a API do serviço de transferência de dados do BigQuery.

Para a regra da política de entrada:

  • Defina a origem no campo "De" para "Todas as fontes permitidas".
  • Dê permissão à identidade els-da-carbon@gcp-carbon-footprint-exports.iam.gserviceaccount.com.

Como configurar uma exportação de Pegada de carbono para o BigQuery

Os dados da Pegada de carbono são exportados pela Serviço de transferência de dados do BigQuery: A transferência de dados cria uma tabela particionada por mês chamada carbon_footprint no conjunto de dados do BigQuery de sua escolha.

A Pegada de carbono exporta os dados de cada mês no 15o dia do mês seguinte. Por exemplo, os dados de carbono de setembro de 2022 serão exportados. em 15 de outubro de 2022.

Depois que uma configuração de transferência da Pegada de carbono é criada, ela exportar automaticamente futuros relatórios de carbono no dia 15 de cada mês. Você vai também poderá executar um preenchimento para solicitar dados históricos de janeiro de 2021.

Console

Siga estas etapas para iniciar a exportação:

  1. Acessar a Pegada de carbono
  2. Selecione a conta do Cloud Billing que você quer exportar do Menu Conta de faturamento.
  3. Clique em Exportar para ativar o serviço de transferência de dados do BigQuery e abra o Página do serviço de transferência de dados do BigQuery.
  4. Na página do serviço de transferência de dados do BigQuery:
    1. Verifique se Origem está definida como "Pegada de carbono do Google Cloud". Exportações".
    2. Em Transferir nome da configuração, insira um nome de exibição.
    3. Em Configurações de destino, clique no campo ID do conjunto de dados e depois Selecione Criar novo conjunto de dados se quiser criar um novo conjunto. conjunto de dados do BigQuery para hospedar a tabela exportada; como alternativa, selecione um conjunto de dados do BigQuery.
    4. Em Detalhes da origem de dados, confirme o ID da conta do Cloud Billing para exportar. Se quiser, adicione outros IDs de contas separados por vírgulas lista. Todos os IDs de contas de faturamento precisam estar no formato XXXXXX-XXXXXX-XXXXXX:
  5. Clique em Salvar.
  6. Na janela de solicitação de acesso, clique em Permitir.

bq

Use o comando bq mk --transfer_config. Para iniciar a exportação:

bq mk \
--transfer_config \
--target_dataset=DATASET \
--display_name=NAME \
--params='{"billing_accounts":"BILLING_ACCOUNT_IDS"}' \
--data_source='61cede5a-0000-2440-ad42-883d24f8f7b8'

Em que:

  • DATASET é o conjunto de dados de destino na configuração da transferência:
  • NAME é o nome de exibição da configuração de transferência. Por exemplo: "Company Carbon Report".
  • BILLING_ACCOUNT_IDS é o ID da sua conta de faturamento ou um lista separada por vírgulas de IDs de contas de faturamento. Por exemplo: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

Terraform

Use o recurso bigquery_data_transfer_config do Terraform para criar uma exportação:

resource "google_bigquery_data_transfer_config" "RESOURCE_NAME" {
  display_name           = "NAME"
  data_source_id         = "61cede5a-0000-2440-ad42-883d24f8f7b8"
  destination_dataset_id = google_bigquery_dataset.DATASET.dataset_id
  params = {
    billing_accounts     = "BILLING_ACCOUNT_IDS"
  }
}

Em que:

  • RESOURCE_NAME é o nome do recurso do Terraform. Por exemplo, carbon_export.
  • NAME é o nome de exibição da configuração de transferência. Por exemplo: "Company Carbon Report".
  • DATASET é o nome do arquivo do Terraform google_bigquery_dataset. recurso para usar como o conjunto de dados de destino para a exportação.

  • BILLING_ACCOUNT_IDS é o ID da sua conta de faturamento ou um lista separada por vírgulas de IDs de contas de faturamento. Por exemplo: XXXXXX-XXXXXX-XXXXXX,XXXXXX-XXXXXX-XXXXXX

A configuração de transferência foi criada e vai exportar dados no dia 15 de todos os meses futuros.

A configuração de transferência não exporta dados históricos automaticamente. Para solicitar dados históricos a partir de janeiro de 2021, agende uma preenchimento de dados siga estas etapas.

Console

Siga estas etapas para programar o preenchimento de dados:

  1. Acesse os detalhes da transferência que você acabou de criar.
  2. Clique em Programar preenchimento.
  3. Selecione Executar por um período.
  4. Selecione 15 de fevereiro de 2021 como data de início e a data de hoje como a data de término. A exportação de 15 de fevereiro de 2021 contém as seguintes informações: dados de janeiro de 2021, por isso é o primeiro mês disponível para solicitação.
  5. Clique em OK para solicitar o preenchimento de dados.

Os preenchimentos de dados serão criados para o intervalo selecionado, exportando dados mensais históricos para o conjunto de dados de destino.

bq

Use o comando bq mk --transfer_run. para criar um preenchimento:

bq mk \
--transfer_run \
--start_time=START_TIME \
--end_time=END_TIME \
CONFIG

Em que:

  • START_TIME é um carimbo de data/hora; que especifica o horário de início do intervalo para preenchimento. Por exemplo: 2021-02-15T00:00:00Z. A data mais próxima que você pode especificar aqui é 15 de fevereiro de 2021. já que contém dados de janeiro de 2021.
  • END_TIME é um carimbo de data/hora; que especifica o horário de término do intervalo para preenchimento. Por exemplo: 2022-09-15T00:00:00Z. Você pode usar a data atual.
  • TRANSFER_CONFIG é o identificador da transferência criada em na etapa anterior. Por exemplo, projects/0000000000000/locations/us/transferConfigs/00000000-0000-0000-0000-000000000000.

Depois da exportação dos dados, você pode usar o BigQuery para: visualizar e consultar os dados. Leia mais sobre o esquema de dados.

Você pode compartilhar os dados exportados com outras pessoas na sua organização concedendo a elas Papel do IAM de usuário do BigQuery no projeto selecionado anteriormente. Como alternativa, é possível conceder acesso granular o acesso no nível do conjunto de dados ou da tabela usando o Papel do IAM de Leitor de dados do BigQuery

Gerenciar exportações da Pegada de carbono

Você pode gerenciar as exportações da Pegada de carbono pelo Serviço de transferência de dados do BigQuery: Saiba mais sobre como trabalhar com transferências.

Exportando para as Planilhas Google ou CSV

Depois de configurar a exportação de pegada de carbono para o BigQuery e a exportação programada estiver concluída, é possível exportar esses dados do BigQuery para Planilhas Google ou CSV.

  1. Ir para o BigQuery
  2. No painel Explorador, expanda seu projeto e conjunto de dados, depois selecione as que contém os dados exportados de pegada de carbono.
  3. Clique em Consulta.
  4. Insira uma consulta para retornar os dados que você quer exportar. Veja um exemplo abaixo.
  5. Após executar a consulta, em Resultados da consulta, clique em Salvar resultados.
  6. Selecione o formato desejado e clique em Salvar.

A consulta a seguir permite salvar todo o conteúdo da tabela exportada:

SELECT
  usage_month,
  billing_account_id,
  project.number AS project_number,
  project.id AS project_id,
  service.id AS service_id,
  service.description AS service_description,
  location.location AS location,
  location.region AS region,
  carbon_model_version,
  carbon_footprint_kgCO2e.scope1 AS carbon_footprint_scope1,
  carbon_footprint_kgCO2e.scope2.location_based AS carbon_footprint_scope2_location_based,
  carbon_footprint_kgCO2e.scope3 AS carbon_footprint_scope3,
  carbon_footprint_total_kgCO2e.location_based AS carbon_footprint_total_location_based
FROM
  `PROJECT.DATASET.carbon_footprint`
ORDER BY
  usage_month DESC,
  carbon_footprint_total_location_based DESC

A seguir