Importar e exportar dados
Nesta página, listamos os métodos disponíveis para importar e exportar dados para e do Bigtable.
Importar dados para o Bigtable
Para importar dados do BigQuery para o Bigtable, consulte Exportar dados para o Bigtable (ETL reverso) na documentação do BigQuery.
É possível executar consultas contínuas nos dados do BigQuery e exportar os resultados para o Bigtable em tempo real usando a ETL reversa. Para mais informações, consulte Introdução às consultas contínuas na documentação do BigQuery.
Migração ou cópia de dados com um modelo
É possível usar os seguintes modelos do Dataflow para mover ou copiar dados entre o Bigtable e outras fontes ou destinos.
BigQuery
O modelo do Dataflow a seguir permite exportar dados do BigQuery para o Bigtable.
Apache Cassandra para Bigtable
O modelo do Dataflow a seguir permite exportar dados do Apache Cassandra para o Bigtable.
Arquivos Avro
Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como arquivos Avro e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a Google Cloud CLI ou o console Google Cloud . O código-fonte está no GitHub.
Arquivos Parquet
Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como arquivos Parquet e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a CLI gcloud ou o console Google Cloud . O código-fonte está no GitHub.
SequenceFiles
Os modelos do Dataflow a seguir permitem exportar dados do Bigtable como SequenceFiles e depois importá-los novamente para o Bigtable. É possível executar os modelos usando a Google Cloud CLI ou o console Google Cloud .
Importar na página "Tabelas"
É possível executar muitos dos métodos de importação descritos nesta página usando o consoleGoogle Cloud . Importe os seguintes tipos de dados da página Tabelas:
- Dados CSV
- Dados do BigQuery
- Arquivos Avro
- Keyspaces e tabelas do Cassandra
- Arquivos Parquet
Arquivos SequenceFile
Console
Abra a lista de instâncias do Bigtable no console Google Cloud .
Clique na instância que contém a tabela que você quer importar.
Clique em Tabelas no painel esquerdo.
A página Tabelas exibe uma lista de tabelas na instância.
Ao lado do nome da tabela em que você quer importar dados, clique no menu
Ação da tabela.Clique em Importar dados e selecione o tipo de dados que você quer importar:
- Se você selecionar Avro, Parquet, SequenceFile ou Cassandra, o console vai mostrar um modelo do Dataflow parcialmente concluído. Preencha o modelo de job e clique em Executar job.
- Se você selecionar CSV, a janela do terminal da
CLI
cbt
será aberta. Para mais informações, consulte a seção Importar dados CSV deste documento. - Se você selecionar o BigQuery, o BigQuery Studio será aberto. Preencha e execute a consulta de ETL reverso.
Exportar na página "Tabelas"
É possível executar alguns dos métodos de exportação descritos nesta página usando o Google Cloud console. Exporte os seguintes tipos de dados da página Tabelas:
- Arquivos Avro
- Arquivos Parquet
Arquivos SequenceFile
Console
Abra a lista de instâncias do Bigtable no console Google Cloud .
Clique na instância onde está tabela que você quer exportar.
Clique em Tabelas, no painel à esquerda.
A página Tabelas exibe uma lista de tabelas na instância.
Ao lado do nome da tabela, clique no menu
Ação da tabela.Clique em Exportar dados e selecione o tipo de arquivo que você quer exportar.
O console exibe um modelo do Dataflow parcialmente concluído.
Preencha o modelo de job e clique em Executar job.
Importar dados CSV
É possível importar dados de um arquivo CSV para uma tabela do Bigtable usando a
CLI
cbt
. Para isso, verifique se o ambiente, como o Cloud Shell, pode acessar o arquivo CSV. Você pode transferir o arquivo CSV para o Cloud Shell de uma das seguintes maneiras:
Fazer upload de um arquivo CSV local:
- No Cloud Shell, clique no menu Mais e selecione Fazer upload.
- Selecione o arquivo CSV na sua máquina local.
- Depois de fazer upload do arquivo, consulte-o pelo nome no comando da CLI
cbt
.
Copiar um arquivo CSV do Cloud Storage:
A CLI cbt
não oferece suporte direto à importação de um bucket do Cloud Storage. Primeiro, copie o arquivo CSV do Cloud Storage para o ambiente do Cloud Shell. Para mais informações, consulte
Fazer upload de um objeto para um bucket.
Depois que o arquivo CSV estiver disponível no seu ambiente, use o comando da CLI cbt
para importar os dados. Para um exemplo de comando, consulte
Gravar em lote muitas linhas com base no arquivo de entrada.
A seguir
- Criação, cópia ou restauração de um backup do Bigtable.
- Explore conceitos relacionados ao projeto de um esquema do Bigtable.
- Migrar para o Bigtable.