Importar e exportar dados

Nesta página, listamos os métodos disponíveis para importar e exportar dados para e do Bigtable.

Importar dados para o Bigtable

Para importar dados do BigQuery para o Bigtable, consulte Exportar dados para o Bigtable (ETL reverso) na documentação do BigQuery.

É possível executar consultas contínuas nos dados do BigQuery e exportar os resultados para o Bigtable em tempo real usando a ETL reversa. Para mais informações, consulte Introdução às consultas contínuas na documentação do BigQuery.

Migração ou cópia de dados com um modelo

É possível usar os seguintes modelos do Dataflow para mover ou copiar dados entre o Bigtable e outras fontes ou destinos.

BigQuery

O modelo do Dataflow a seguir permite exportar dados do BigQuery para o Bigtable.

Apache Cassandra para Bigtable

O modelo do Dataflow a seguir permite exportar dados do Apache Cassandra para o Bigtable.

Arquivos Avro

Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como arquivos Avro e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a Google Cloud CLI ou o console Google Cloud . O código-fonte está no GitHub.

Arquivos Parquet

Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como arquivos Parquet e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a CLI gcloud ou o console Google Cloud . O código-fonte está no GitHub.

SequenceFiles

Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como SequenceFiles e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a Google Cloud CLI ou o console Google Cloud .

Importar na página "Tabelas"

É possível executar muitos dos métodos de importação descritos nesta página usando o consoleGoogle Cloud . Importe os seguintes tipos de dados da página Tabelas:

  • Dados CSV
  • Dados do BigQuery
  • Arquivos Avro
  • Keyspaces e tabelas do Cassandra
  • Arquivos Parquet
  • Arquivos SequenceFile

Console

  1. Abra a lista de instâncias do Bigtable no console Google Cloud .

    Abrir a lista de instâncias

  2. Clique na instância que contém a tabela que você quer importar.

  3. Clique em Tabelas no painel esquerdo.

    A página Tabelas exibe uma lista de tabelas na instância.

  4. Ao lado do nome da tabela em que você quer importar dados, clique no menu Ação da tabela.

  5. Clique em Importar dados e selecione o tipo de dados que você quer importar:

    • Se você selecionar Avro, Parquet, SequenceFile ou Cassandra, o console vai mostrar um modelo do Dataflow parcialmente concluído. Preencha o modelo de job e clique em Executar job.
    • Se você selecionar CSV, a janela do terminal da CLI cbt será aberta. Para mais informações, consulte a seção Importar dados CSV deste documento.
    • Se você selecionar o BigQuery, o BigQuery Studio será aberto. Preencha e execute a consulta de ETL reverso.

Exportar na página "Tabelas"

É possível executar alguns dos métodos de exportação descritos nesta página usando o Google Cloud console. Exporte os seguintes tipos de dados da página Tabelas:

  • Arquivos Avro
  • Arquivos Parquet
  • Arquivos SequenceFile

Console

  1. Abra a lista de instâncias do Bigtable no console Google Cloud .

    Abrir a lista de instâncias

  2. Clique na instância onde está tabela que você quer exportar.

  3. Clique em Tabelas, no painel à esquerda.

    A página Tabelas exibe uma lista de tabelas na instância.

  4. Ao lado do nome da tabela, clique no menu Ação da tabela.

  5. Clique em Exportar dados e selecione o tipo de arquivo que você quer exportar.

    O console exibe um modelo do Dataflow parcialmente concluído.

  6. Preencha o modelo de job e clique em Executar job.

Importar dados CSV

É possível importar dados de um arquivo CSV para uma tabela do Bigtable usando a CLI cbt. Para isso, verifique se o ambiente, como o Cloud Shell, pode acessar o arquivo CSV. Você pode transferir o arquivo CSV para o Cloud Shell de uma das seguintes maneiras:

Fazer upload de um arquivo CSV local:

  1. No Cloud Shell, clique no menu Mais e selecione Fazer upload.
  2. Selecione o arquivo CSV na sua máquina local.
  3. Depois de fazer upload do arquivo, consulte-o pelo nome no comando da CLI cbt.

Copiar um arquivo CSV do Cloud Storage:

A CLI cbt não oferece suporte direto à importação de um bucket do Cloud Storage. Primeiro, copie o arquivo CSV do Cloud Storage para o ambiente do Cloud Shell. Para mais informações, consulte Fazer upload de um objeto para um bucket.

Depois que o arquivo CSV estiver disponível no seu ambiente, use o comando da CLI cbt para importar os dados. Para um exemplo de comando, consulte Gravar em lote muitas linhas com base no arquivo de entrada.

A seguir