データのインポートとエクスポート

このページでは、Bigtable との間でデータをインポートおよびエクスポートするために利用できる方法について説明します。

BigQuery からデータをエクスポートする

BigQuery データを Bigtable にエクスポートするには、Bigtable にデータをエクスポートする(リバース ETL)をご覧ください。

BigQuery データに対して継続的クエリを実行し、リバース ETL を使用して結果を Bigtable にリアルタイムでエクスポートできます。詳細については、BigQuery ドキュメントの継続的クエリの概要をご覧ください。

テンプレートを使用してデータを移動またはコピーする

BigQuery

次の Dataflow テンプレートを使用すると、BigQuery から Bigtable にデータをエクスポートできます。

Apache Cassandra to Bigtable

次の Dataflow テンプレートを使用すると、Apache Cassandra から Bigtable にデータをエクスポートできます。

Avro ファイル

次の Dataflow テンプレートを使用すると、Bigtable から Avro ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。

Parquet ファイル

次の Dataflow テンプレートを使用すると、Bigtable から Parquet ファイルとしてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、gcloud CLI または Google Cloud コンソールを使用します。ソースコードは GitHub にあります。

SequenceFiles

次の Dataflow テンプレートを使用すると、Bigtable から SequenceFiles としてデータをエクスポートし、そのデータを Bigtable に再インポートできます。テンプレートを実行するには、Google Cloud CLI または Google Cloud コンソールを使用します。

テーブルページからエクスポートする

また、 Google Cloud コンソールの [テーブル] ページから直接、Avro ファイル、Parquet ファイル、SequenceFiles をエクスポートすることもできます。

  1. Google Cloud コンソールで Bigtable インスタンスのリストを開きます。

    インスタンスのリストを開く

  2. エクスポートするテーブルが含まれているインスタンスをクリックします。

  3. 左側のペインで [テーブル] をクリックします。

    [テーブル] ページに、インスタンス内のテーブルのリストが表示されます。

  4. エクスポートするテーブル名の横にある [テーブル アクション] メニューをクリックします。

  5. [Cloud Storage にエクスポートする形式] メニュー セクションで、目的のファイル形式をクリックします。

    部分的に完了した Dataflow テンプレートがコンソールに表示されます。

  6. フォームの残りの部分に記入し、[ジョブを実行] をクリックします。

CSV データをインポートする

cbt CLI を使用して、CSV ファイルから Bigtable テーブルにデータをインポートできます。詳細については、入力ファイルに基づいて多くの行をバッチ書き込みするをご覧ください。

次のステップ